Spelling suggestions: "subject:"[SPI] engineering ciences"" "subject:"[SPI] engineering csciences""
71 |
Comportement des sédiments marins de grande profondeur : approche multiéchelleHammad, Tammam 01 November 2010 (has links) (PDF)
Une analyse expérimentale approfondie avec une approche micro macro a été réalisée sur un matériaucomposé d'un mélange d'argile Kaolinite/Smectite. L'étude a permis de montrer à l'échelle macroscopiquecomme à l'échelle microscopique un comportement particulièrement sensible à la proportion de smectitedans le mélange. La kaolinite (Kaolinite P300) est bien connue du point de vu de sa caractérisation et deson comportement, la smectite (également nommée argile grecque) est de type calcique et a égalementfait l'objet de plusieurs études.Dès 35% de smectite dans le mélange, les résultats sur chemin triaxial montrent que le comportementapproche considérablement celui de la smectite. Par ailleurs, l'investigation à l'échelle microscopique (aumoyen de Microscope Electronique à Balayage complétée par une analyse de diffractions des rayons X)réalisé sur les échantillons après l'essai, met en évidence le fait que, lorsqu'elle dépasse un certain seuil, lafraction en smectite favorise le développement de plans de glissement. Ces plans apparaissent clairementsous forme de groupes de particules de smectite orientées.L'analyse microstructurale utilisée est basée sur une méthode rigoureuse, développée dans le cadre decette thèse, avec un traitement d'images automatisé permettant de fournir des résultats quantitatifs.Cette démarche d'investigation multi‐échelles a été employée afin caractériser le comportement d'unsédiment marin prélevé au large de Golfe de Guinée par 700 m de profondeur d'eau. L'étude, initialementmenée dans le cadre du projet CLAROM (2002‐2005), intéresse l'industrie Offshore. Le sédiment naturelcontient jusqu'à 60% de proportion argileuse avec approximativement 15% de smectite et 50% dekaolinite.
|
72 |
Analyse et modélisation de l'impact de la météorologie sur le trafic routierBillot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.
|
73 |
Contribution à l'analyse d'ordonnançabilité des applications temps-réel multiprocesseursMalo, Sadouanouan 09 December 2010 (has links) (PDF)
Les applications temps réel, le plus souvent dédiées au contrôle de procédé, sont soumises à des contraintes temporelles strictes, destinées à garantir la sécurité et la cohérence du procédé contrôlé. Les applications temps réel étant des applications multi tâches, elles doivent être ordonnancées, le critère sine qua non de qualité de la stratégie d'ordonnancement étant la garantie du respect des contraintes temporelles. Ces applications sont de plus en plus souvent déployées sur des architectures multiprocesseurs. Le problème de l'ordonnancement doit donc être posé dans ce contexte, où de nombreux problèmes doivent encore être abordés. Notons tout d'abord que dans le cas multiprocesseur, il n'existe pas d'ordonnancement en ligne optimal dans le cas général, le problème de l'ordonnancement est NP-complet, et des anomalies d'ordonnancement apparaissent même lorsque l'on ne considère que des tâches indépendantes (une durée d'exécution plus courte que prévue peut provoquer une faute temporelle). Nous avons envisagé de prendre en compte la possibilité que des pannes matérielles surviennent. Nous avons étudié les mécanismes de reprise après la panne d'un processeur, dans le cas où l'application est ordonnancée par EDF, puis par un algorithme P-équitable. Ces mécanismes nécessitent de disposer d'un certain nombre de résultats généraux. Tout d'abord, nous avons étendu la définition de la P-équité à un contexte plus large que celui de la littérature, à savoir aux tâches à départs différés et à échéances contraintes, puis nous avons établi une condition suffisante d'ordonnançabilité dans ce contexte, dont nous avons étudié les performances à l'aide de simulations. Enfin, nous avons proposé un protocole efficace de gestion des flux apériodiques qui s'appuie sur une distribution P-équitable des temps creux. Cette répartition peut être obtenue soit en ordonnançant les tâches périodiques par une stratégie P-équitable quand le contexte le permet, soit via une analyse hors-ligne à base de réseaux de Petri. Nous avons proposé une technique d'extraction qui permet de forcer la répartition équitable des temps creux.
|
74 |
Approximation des temps de réponse des tâches sporadiques à priorité fixe dans les systèmes monoprocesseursNguyen, Thi Huyen Chau 25 November 2010 (has links) (PDF)
Deux techniques sont utilisées pour vérifier que des tâches temps réel respectent bien leurs échéances temporelles : les tests d'ordonnançabilité qui renvoient un résultat binaire (ordonnançable ou non) et les calculs de temps de réponse (Response Time Analysis - RTA) qui déterminent la longueur du plus long intervalle de temps entre le réveil et la terminaison d'une tâche. Ces deux approches ont une complexité pseudo-polynomiale et notons qu'aucun algorithme polynomial n'est connu. Dans ce contexte, elles ne sont pas particulièrement appropriées pour la conception intéractive des systèmes temps réel ou pour analyser des systèmes distribués à l'aide d'une analyse holistique. Dans de tels scénarios, un algorithme pseudo-polynomial est lent, puisque les calculs des temps de réponse des tâches sont exécutées à de nombreuses reprises. De plus, pour certains systèmes temps réels, tels que dans les systèmes de contrôle-commande, il est nécessaire de connaître le pire temps de réponse des tâches et non seulement la décision binaire sur l'ordonnançabilité des tâches. Dans ce contexte, il peut être acceptable d'utiliser un algorithme plus rapide qui fournit une analyse approchée au lieu d'utiliser des analyses reposant sur des calculs exacts. Comme cette approximation va introduire du pessimisme dans le processus de décision, il est souhaitable de le quantifier d'une manière à définir un compromis entre le temps de calcul et l'exigence de ressource du processeur. C'est la raison pour laquelle, dans ce travail, nous proposons des algorithmes pour calculer efficacement des bornes supérieures des pires temps de réponse et nous présentons des résultats sur leurs qualités dans le pire cas (analyse de compétitivité avec augmentation de ressource) et en moyenne (simulations).
|
75 |
Développement d'une méthode de modélisation pour l'évaluation de la performance de stratégies de sécurité incendieMuller, Anne 08 December 2010 (has links) (PDF)
Aujourd'hui en France, l'évaluation de la performance de stratégies de sécurité à déployer pour mettre un bâtiment en sécurité vis-à-vis de l'incendie repose sur une étude d'ingénierie en sécurité incendie. Cette étude a pour objectif l'estimation du risque incendie pour différentes stratégies, et pour des scénarios d'incendies jugés pertinents. Pour parvenir à cette estimation, le Centre Scientifique et Technique du Bâtiment français (CSTB) a mis au point un outil de simulation appelé SCHEMA-SI. Cet outil utilise des réseaux de Petri prédicat-transition différentiels orientés objets et des simulations de Monte Carlo pour générer de multiples scénarios d'incendie. Ces scénarios sont ensuite utilisés pour évaluer le risque incendie encouru avec une stratégie de sécurité. La stratégie est alors jugée d'autant plus performante que le risque incendie est faible. L'objectif de la thèse consiste à contribuer au développement d'une méthode d'analyse de risque incendie utilisant l'outil de simulation SCHEMA-SI. La réflexion a débuté par la définition de ce que devrait être cette méthode. A ce stade, il est apparu que l'une des difficultés que la méthode doit surmonter est celle de la mise en donnés du problème par un groupe d'acteurs impliqués dans la sécurité incendie du bâtiment étudié. Pour résoudre cette difficulté, une méthode de modélisation spécifique a été construite. Cette méthode, baptisée ISI-Systema, repose sur deux fondements principaux : d'une part, un langage graphique de modélisation permettant au groupe d'acteurs de réfléchir à la mise en données du problème en s'appuyant sur une approche systémique ; d'autre part, une démarche de traduction des modèles graphiques obtenus avec le langage systémique en réseaux de Petri compatibles avec SCHEMA-SI.Enfin, une application pratique de cette méthode de modélisation est proposée.
|
76 |
Identification rapide de la température dans les structures du génie civilNassiopoulos, Alexandre 28 January 2008 (has links) (PDF)
Le contrôle de santé des structures par méthodes vibratoires se heurte à l'influence prédominante des effets thermiques et suscite le besoin de méthodes d'assimilation thermique en temps réel pour éliminer ces effets. On propose des algorithmes qui permettent de reconstituer, à un instant donné, le champ de température dans une structure tridimensionnelle à partir de mesures ponctuelles enregistrées sur un intervalle de temps précédant cet instant. La démarche adoptée est celle de la méthode adjointe tirée de la théorie du contrôle optimal : on résout un problème de minimisation au sens des moindres carrés d'une fonction de coût mesurant l'écart entre les données et le champ de température reconstruit. La minimisation dans un espace de type H1 lève la difficulté habituelle de la méthode adjointe à la fin de la fenêtre d'observation, ce qui permet la reconstruction précise de la température à l'instant courant. La définition des valeurs ponctuelles du champ de température impose le choix d'espaces de contrôle de régularité importante. Pour pouvoir utiliser des méthodes usuelles de discrétisation malgré un second membre formé de masses de Dirac, l'état adjoint est défini par des techniques spécifiques fondées sur la transposition. Le formalisme dual adopté conduit à poser le problème dans un espace essentiellement unidimensionnel. En réduisant la quantité de calculs en ligne, au prix d'une série de précalculs, il donne lieu à des algorithmes d'assimilation en temps réel applicables à des structures tridimensionnelles de géométrie complexe. La robustesse des méthodes par rapport aux erreurs de modélisation et au bruit de mesure est évaluée numériquement et validée expérimentalement.
|
77 |
Optimisation de la chaîne logistique dans l'industrie de process. Méthodes et application à l'industrie du verre platMiegeville, Nicolas 21 September 2005 (has links) (PDF)
L'importance croissante que le client accorde à la manière dont une entreprise<br />satisfait sa demande bouleverse les fondements des organisations anciennement pensées sous l'angle de la production. Phénomène tout à fait perceptible dans un grand<br />groupe industriel comme Saint-Gobain, à forte culture ingénieur, cette prise de<br />conscience donne un nouvel élan aux métiers transversaux focalisés à la fois sur<br />l'optimisation du schéma industriel et de la chaîne logistique. Cette thèse est une<br />illustration de cette évolution : l'intérêt porté aux problèmes d'optimisation des systèmes industriels et logistiques est relativement récent à Saint-Gobain Recherche.<br />Nous nous sommes intéressés dans nos travaux à différents problèmes industriels<br />complémentaires rencontrés chez Saint-Gobain Glass, leader de la production de<br />verre plat en Europe. Nous avons apporté des solutions mettant en lumière l'interdépendance de différentes décisions à des problèmes industriels complexes, avec un<br />souci constant de produire des outils d'aide à la décision utiles et appréciés.<br />Après un avant-propos rappelant le sens de notre démarche, nous découvrirons<br />dans le chapitre 1 le contexte industriel qui a motivé notre recherche. Nous présentons<br />les métiers du groupe - produire, transformer et distribuer du verre plat - et les<br />différents niveaux de décision que nous avons décidé d'aborder. Les chapitres suivants<br />présentent les problèmes d'optimisation que nous avons identifiés et qui nous sont<br />apparus comme clés.<br />Nous abordons dans le chapitre 2 un modèle permettant de déterminer les dimensions<br />des produits standards. L'intégration verticale du groupe permet l'étude<br />du meilleur compromis entre les chutes de verre tout au long de la chaîne logistique<br />et le nombre de références à gérer. La suite de la thèse tend à aboutir à une modélisation complète du schéma industriel et logistique et fait l'objet du chapitre 6. Pour cela, nous traitons les questions de localisation d'installations logistiques (chapitre 3) et de modélisation des processus de production : le chapitre 4 présente notre modèle<br />et l'illustre avec la production de verre plat, tandis que le chapitre 5 présente un<br />travail complémentaire permettant de l'appliquer aux lignes de transformation. Finalement, nous intégrons dans le chapitre 6 tous ces travaux dans un modèle linéaire<br />en nombres entiers.<br />Fruit d'une véritable collaboration entre chercheurs et industriels, ce travail présente<br />un modèle générique déterministe d'optimisation de la chaîne logistique appliqué avec succès à l'industrie du verre. De nombreuses perspectives dignes d'intérêt<br />sont imaginables, autant théoriques que pratiques.
|
78 |
Cicatrisation de la zone endommagée autour du tunnel dans les roches peu perméablesHamza, Rose 16 December 2005 (has links) (PDF)
Trois types d'argile ont été étudiés dans cette thèse, l'argile de Mol (argile plastique), l'argile du Mont Terri (argile à opalines) et l'argile de L'Est (argile raide). La thèse comprend trois parties: une partie expérimentale qui a permis d'identifier le phénomène de cicatrisation et de fermeture des fissures. On a cherché à travers plusieurs types d'essais à déterminer l'évolution de la perméabilité des échantillons argileux intacts et endommagés en fonction du temps et en fonction des différents chargements hydromécaniques appliqués. Une loi rhéologique pour décrire le phénomène de cicatrisation a été développée à partir des observations expérimentales et sous certaines hypothèses. Les paramètres du modèle de cicatrisation ont pu être déterminés suite à une simulation numérique. Pour prendre en compte des effets de structures à grandes échelles, la modélisation d'un tunnel a permis de mieux identifier le phénomène de cicatrisation et d'analyser la stabilité à long terme de cet ouvrage.
|
79 |
Lois de comportement et mise en forme des matériaux métalliquesManach, Pierre-Yves 16 December 2004 (has links) (PDF)
A mettre
|
80 |
Modélisation de la fissuration pour l'évaluation de la perte d'étanchéité des structures en béton armé sous chargements mécaniquesBongué Boma, Malika 11 December 2007 (has links) (PDF)
L'évaluation du comportement de structures de béton armé est une problématique cruciale dans le domaine du génie civil : l'objectif de cette thèse est la mise en place d'un modèle mécanique capable de décrire l'évolution des paramètres physiques qui régissent l'évolution de la perméabilité de ce matériau. Le béton (initialement micro-fissuré) est modélisé comme un milieu fia microstructure : la cinématique du corps est enrichie par une variable caractéristique de la taille et de l'orientation du champ de fissure. La théorie des forces configurationnelles est utilisée afin de tenir compte des évolutions irréversibles des micro-défauts. Ces deux approches nous permettent de déterminer les équations d'équilibre régissant la déformation du milieu ainsi que la propagation des fissures. Les paramétres utilisés pour décrire la microstructure ont été choisis de faficon fia schématiser le milieu poreux : la résolution des équations de Stokes sur le volume élémentaire représentatif (microstructure) permettra d'évaluer la perméabilité intrinsèque en tout point du corps. Un exemple a été détaillé : on détermine le comportement d'un solide en traction tout en considérant des conditions d'étude simplifiées (champ de fissures homogène, isostaticité, application de la mécanique linéaire de la rupture). Déformation, propagation des fissures et perte de rigidité sont déterminées en fonction du chargement. On présente par ailleurs l'évolution de la perméabilité du milieu : une fois amorcée, la propagation du champ de fissure devient la cause principale de la perte d'étanchéité.
|
Page generated in 0.0856 seconds