• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 45
  • 14
  • Tagged with
  • 228
  • 68
  • 68
  • 51
  • 28
  • 25
  • 24
  • 19
  • 19
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Impact des critères de jugement sur l’optimisation de la détermination du nombre de sujet nécessaires pour qualifier un bénéfice clinique dans des essais cliniques en cancérologie / Impact of the endpoints on the optimization of the determination of the sample size in oncology clinical trials to qualify a clinical benefit

Pam, Alhousseiny 19 December 2017 (has links)
La survie globale (SG) est considérée comme le critère de jugement principal de référence et le plus pertinent/objectif dans les essais cliniques en oncologie. Cependant, avec l’augmentation du nombre de traitements efficaces disponibles pour une majorité de cancers, un nombre plus important de patients à inclure et un suivi plus long est nécessaire afin d’avoir suffisamment de puissance statistique pour pouvoir mettre en évidence une amélioration de la SG. De ce fait les critères de survie composites, tels que la survie sans progression, sont couramment utilisés dans les essais de phase III comme critère de substitution de la SG. Leur développement est fortement influencé par la nécessité de réduire la durée des essais cliniques, avec une réduction du coût et du nombre de sujets nécessaires. Cependant, ces critères sont souvent mal définis, et leurs définitions sont très variables entre les essais, rendant difficile la comparaison entre les essais. De plus, leur capacité de substitution à la SG, c’est-à-dire la capacité à prédire un bénéfice sur la SG à partir des résultats de l’essai sur le critère d’évaluation, n’a pas toujours été rigoureusement évaluée. Le projet DATECAN-1 a permis de proposer des recommandations pour la définition et donc l’homogénéisation entre essais cliniques randomisés (ECR) de ces critères [1].De plus, la majorité des essais cliniques de phase III intègrent désormais la qualité de vie relative à la santé (QdV) comme critère de jugement afin d’investiguer le bénéfice clinique de nouvelles stratégies thérapeutiques pour le patient. Une alternative serait de considérer un co-critère de jugement principal : un critère tumoral tel que la survie sans progression et la QdV afin de s’assurer du bénéfice clinique pour le patient [2]. Bien que la QdV soit reconnue comme second critère de jugement principal par l’ASCO (American Society of Clinical Oncology) et la FDA (Food and Drug Administration) [3], elle est encore peu prise en compte comme co-critère de jugement principal dans les essais. L’évaluation, l’analyse et l’interprétation des résultats de QdV demeurent complexes, et les résultats restent encore peu pris en compte par les cliniciens du fait de son caractère subjectif et dynamique [4].Lors de la conception d’un essai clinique avec des critères de jugements principaux multiples, il est essentiel de déterminer la taille de l’échantillon appropriée pour pouvoir indiquer la signification statistique de tous les co-critères de jugements principaux tout en préservant la puissance globale puisque l’erreur de type I augmente avec le nombre de co-critères de jugements principaux. Plusieurs méthodes ont été développées pour l’ajustement du taux d’erreur de type I [5]. Elles utilisent généralement un fractionnement du taux d’erreur de type I appliqué à chacune des hypothèses testées. Toutes ces méthodes sont investiguées dans ce projet.Dans cette optique, les objectifs de mon projet de thèse sont :1) D’étudier l’influence des définitions des critères de survie issus du consensus du DATECAN-1 sur les résultats et les conclusions des essais.2) D’étudier les propriétés des critères de substitution à la SG.3) De proposer un design du calcul du nombre de sujets nécessaires pour une étude clinique de phase III avec des co-critères de jugement de type temps jusqu’à événement tels la survie sans progression et la QdV.L’objectif final de mon projet de thèse est, sur la base de publications, de développer un package R pour le calcul du nombre de sujets nécessaires avec les co-critères de jugement principal et d’étudier les critères de substitutions à la SG pour le cancer du pancréas. / In oncology clinical trial, overall survival (OS) benefit is the gold standard for the approval of new anticancer by the regulatory agencies as the FDA. The need to reduce long-term follow-up, sample size and cost of clinical trials led to use some intermediate endpoint for OS to assess earlier efficacy of treatments. The intermediate endpoints are often used as primary endpoints because they can be assessed earlier and most of the time, these endpoints are composite endpoints because they combine different events. Nevertheless, composite endpoints suffer from important limitations specially the variability of their definitions, which is recognized as a major methodological problem. In this context, the DATECAN-1 project has been developed to provide recommendations and to standardize definitions of time-to-event composite endpoints for each specific diseases and at each specific stage by use of a formal consensus methodology. To validate surrogate endpoints, Buyse and colleagues developed a method based on individual-data meta-analysis, which assesses “individual-level” surrogacy and “trial-level” surrogacy, which is considered as the gold standard.Phase III cancer clinical trials investigators employ more and more two co-primary endpoints. However, an important challenge, in the conception of clinical trials is the sample size calculation according to the main objective(s) and the ability to manage multiple co-primary endpoints. The determination of sample size is fundamental and critical elements in the design of phase III clinical trial. If the sample size is too small, important effects may be go unnoticed. If it is too large, it represents a waste of resources and unethically puts more participants at risk than necessary. The statistical power depends on the total number of events rather than on total sample size.The objectives of my thesis project are:1) To study the impact of the definitions of time-to-event endpoint from the DATECAN-1 consensus on the results and conclusions of the trials published in pancreatic cancer.2) To study the properties of the potential surrogate to the overall survival.3) To propose a design for the determination of sample size necessary for a phase III clinical study with co-primary time-to-event such as progression-free survival and time to quality of life deterioration.The final objective of my thesis project is to develop an R package for the calculation of the number of subjects needed with the co-primary time-to-event in phase III clinical trials.
112

Optimisation multicritères et applications aux systèmes multi-processeurs embarqués / Multi-Criteria Optimization and its Application to Multi-Processor Embedded Systems

Legriel, Julien 04 October 2011 (has links)
Dans cette thèse nous développons de nouvelles techniques pour résoudre les problèmes d'optimisation multi-critère. Ces problèmes se posent naturellement dans de nombreux domaines d'application (sinon tous) où les choix sont évalués selon différents critères conflictuels (coûts et performance par exemple). Contrairement au cas de l'optimisation classique, de tels problèmes n'admettent pas en général un optimum unique mais un ensemble de solutions incomparables, aussi connu comme le front de Pareto, qui représente les meilleurs compromis possibles entre les objectifs conflictuels. La contribution majeure de la thèse est le développement d'algorithmes pour trouver ou approximer ces solutions de Pareto pour les problèmes combinatoires difficiles. Plusieurs problèmes de ce type se posent naturellement lors du processus de placement et d'ordonnancement d'une application logicielle sur une architecture multi-coeur comme P2012, qui est actuellement développé par STMicroelectronics. / In this thesis we develop new techniques for solving multi-criteria optimization problems. Such problems arise naturally in many (if not all) application domains where choices are evaluated according to two or more conflicting criteria such as price vs. performance. Unlike ordinary optimization, such problems typically do not admit a unique optimum but a set of incomparable solutions, also known as the Pareto Front, which represent the best possible trade-offs between the conflicting goals. The major contribution of the thesis is the development of algorithms for finding or approximating these Pareto solutions for hard combinatorial problems that arise naturally in the process of mapping and scheduling application software on multi-core architectures such as P2012 which is currently being developed by ST Microelectronics.
113

Simulation et analyse numérique de procédés de récupération de pétrole caractérisés par des fronts raides / Numerical simulation and analysis of petroleum recovery processes characterized by sharp fronts

Lavie, Guillaume 16 December 2011 (has links)
Du fait de la raréfaction des gisements de pétrole conventionnel et de l'accroissement de la demande mondiale, les compagnies pétrolières sont amenées à considérer de nouvelles réserves inexploitées car trop coûteuses à l'exploitation il y a quelques années. Ce travail est consacré à la simulation numérique d'un procédé d'extraction de pétrole lourd, le VAPEX, caractérisé par l'injection de solvant facilitant le drainage par gravité de l'huile. L'enjeu principal de cette thèse est de simuler numériquement et avec précision, le mécanisme de pénétration du solvant dans l'huile, cette zone de pénétration étant relativement mince à l'échelle du réservoir. Notre travail a porté sur l'utilisation d’algorithmes de raffinement adaptatif de maillages pour la simulation de ce procédé. Ces considérations nous ont amené à considérer la problématique d'application d'algorithmes de raffinement de maillages en milieu poreux, et plus particulièrement en milieux poreux hétérogènes pour lesquels les indicateurs (ou estimateurs) existants permettant de déterminer les zones à raffiner ne sont pas clairement établis. Dans un premier temps, nous mettons en place l'ensemble des équations que nous sommes amené à résoudre numériquement au cours de l'élaboration des codes de simulation de procédés d'extraction par injection d'eau et de solvant. Nous décrivons ensuite le procédé VAPEX, et nous établissons l'étude semi-analytique de Butler & Mokrys du procédé à laquelle nous ajoutons la prise en compte des termes capillaires. Nous décrivons ensuite deux méthodes mathématiques permettant d'établir des estimateurs a posteriori pour de tels problèmes. Au cours de ce travail, nous mettons en place deux codes de simulation de réservoirs, le premier est un simulateur basé sur une discrétisation des équations par une méthode de discrétisation par éléments finis mixtes hybrides et permettant de simuler des problèmes d'injection d'eau et le second est basé sur une méthode de discrétisation par volumes finis permettant de simuler des procédés d'injection de solvant tels que le VAPEX. Nous utilisons ensuite ces estimateurs par le biais d’un algorithme de raffinement de maillages pour ces deux codes de simulation. L'étude du modèle semi-analytique que nous avons faite du procédé VAPEX montre que sous certaines hypothèses le terme capillaire peut être assimilé à un terme diffusif pour prédire l'avancement du front. Les estimateurs mis en place basés sur les variations des flux permettent de déterminer les zones de front pour des réservoirs hétérogènes. Nous illustrons ce résultat sur une simulation d'un problème d'injection d'eau à l'aide du simulateur mis en place. Les estimateurs mis en place permettent également de capter les fronts des saturations des phases et de concentration des constituants. Nous illustrons ce résultat sur une simulation du procédé VAPEX.Ce travail a amené à la mise en place d’estimateurs permettant de raffiner des maillages autour des fronts de saturation et de concentration pour des milieux poreux hétérogènes au cours de la simulation d'écoulements en milieux poreux. Pour caractériser ces estimateurs, nous avons distingué un front de saturation (resp. concentration), qui correspond est une forte variation de saturation (resp. concentration) engendrant une forte variation du flux, d'un fort gradient de saturation (resp. concentration) qui apparait automatiquement lorsque la perméabilité du milieu poreux varie brutalement. Les extensions de ce travail pourraient permettre de mettre en œuvre plus de simulations faisant varier les termes capillaires et les termes dispersifs affin de mieux apprécier le comportement des estimateurs introduits. Il serait également intéressant d'étudier l'impact des hypothèses faites pour établir les estimateurs empiriques utilisés. Enfin, de tels estimateurs pourraient s'appliquer à des codes de simulation tenant compte de la dispersion en milieu poreux. / With rarefaction of conventional petroleum fields and the world supply increase, petroleum companies have to consider new unexploited reserves because of their exploitation cost few years ago. These reserves are called unconventional reserves, mainly heavy oil or extra heavy oil. This work is devoted to the numerical simulation of an extraction process of heavy oil, the VAPEX. VAPEX is characterized by solvent injection in a horizontal well in order to facilitate gravity drainage of oil in a producer well situated in the same way under the injector well. The main stake to simulate this process is to simulate the mechanism of solvent penetration in oil with precision, this penetration zone being very thin drawn to the reservoir scale. We focus our work on application of algorithm of adaptive mesh refinement to simulate this process. This consideration lead us to consider the issue of application of mesh refinement in porous media, especially in heterogeneous porous media for which existing indicators (or estimators) do not allow to determine properly the zone to be refined. The objective of this work is to determine a posteriori estimators for implementation of simulation codes of heterogeneous petroleum reservoirs and their application to the VAPEX process. Firstly, we set the whole equations we have to solve numerically to build simulators of petroleum extraction processes by water injection and solvent injection. Then, we describe the VAPEX process and we establish the semi-analytical study of Butler & Mokrys of this process for which we take in account influence of capillarity. Afterwards, we describe two mathematical methods to establish a posteriori estimators for such problems. One of these methods is based on empirical extrapolation of existing estimators for hyperbolic problems given by Ohlberger. In the course of this work, we set two simulation codes of petroleum reservoirs, the first is a simulator based on equations discretisation by mixed finite element method allowing simulation of water injection problems and the second is based on discretisation by finite volumes method allowing simulation of solvent injection processes like the VAPEX. Then, we apply these estimators to an algorithm of mesh refinement for these two simulation codes. The study of the semi-analytical model set of the VAPEX process show that under hypothesis, capillarity can be likened to a diffusive term to determine the front tracking. Estimators set are based on flux variation and allow determining sharp zone to be refined in heterogeneous porous media. We illustrate this result for a simulation of water injection with the simulator built. The estimators set can also track saturations fronts and concentrations fronts. We illustrate this result on a simulation of the VAPEX process. This work shows it is possible to set estimators allowing mesh refinement to track saturations and concentrations fronts during simulation of flow in heterogeneous porous media. To set such estimators, we make a distinction between saturation (resp. concentration) front and high saturation (resp. concentration) gradient. To our point of view, a front is a high variation of saturation or concentration that has a high impact on the flux variation. It is different from a high gradient that appear automatically where the permeability of the porous media has a high variation. This work could be complemented by making more simulations with variations of capillarity and dispersive terms in order to have a better appreciation of estimators introduced. It would be advisable to study the impact of suppositions done to establish these empirical estimators set. After all, such estimators could be applied to a simulation code taking in account dispersion in porous media.
114

Méthodologie de dimensionnement d’un assemblage collé pour application aérospatiale / Design methodology applied to bonded structure for space application

Le Pavic, Jérémy 26 April 2018 (has links)
Les lanceurs spatiaux sont des structures complexes associant une multitude de composants. L’assemblage de ces éléments doit répondre à un niveau de performance élevé. Le collage structural demeure un bon candidat en raison des nombreux avantages qu’il présente. Cependant, cette technologie montre des inconvénients. En raison des changements brusques de géométrie et de propriétés matériaux, des concentrations de contraintes apparaissent aux extrémités du joint de colle. Ce phénomène appelé effets de bords est néfaste pour la tenue mécanique de l’assemblage collé. La présence des effets de bords exclut l’utilisation de critères en contrainte utilisés classiquement. Le dimensionnement d’assemblages collés requiert des outils fiables prenant en compte ces effets de bords. Dans cette étude, un modèle de ruine incrémentale, associant une approche en contrainte et en énergie, est utilisé. L’utilisation de cet outil dans un cadre industriel, impose de répondre aux besoins d’un Bureau d’Études, notamment en termes de coût de calculs. Afin de le diminuer, une implémentation semi-analytique, est tout d’abord développée. Puis, une seconde méthode d’implémentation, basée sur la méthode des Eléments Finis, permet une prévision plus précise de la ruine d’un assemblage. La pertinence de ces deux approches a été vérifiée pour plusieurs configurations de joints collés. Des campagnes d’essais, destinées à confronter les résultats expérimentaux aux prévisions numériques, ont été réalisées. Dans le cadre de ce travail, un montage de collage et d’essai pour assemblages tubulaires a en particulier été développé. L’objectif du pré-dimensionnement est d’identifier une zone d’intérêt dans l’ensemble du domaine d’étude. Aussi, une étude paramétrique peut être requise afin de réaliser cette tâche. Afin de réduire le coût de calcul, une méthode d’interpolation spatiale appelée Krigeage a été mise en œuvre, et permet la construction efficace d’une surface de réponse. / Space Launchers are complex structures composed of a large number of elements. The assembling of these components must show a high level of reliability. The use of adhesive bonding technology is an interesting solution since it presentsseveral assets compared to “classical” joint techniques (such as riveting, bolting and welding), mainly because it can help to construct lighter and less energy consuming systems However„ the implementation of adhesives also has somedrawbacks. Due to the strong variations of geometrical and material properties, stress concentrations appear at the extremities of the joint. This phenomenon; called edge effects; has a great influence on the failure of the bond. As a result, the simple use of a classical stress or energetic criteria is not appropriate to predict the fracture of such structures. Therefore, it is obvious that the design of bonded assemblies requires reliable tools to take the edge effects into account. In this work an incremental failure model, which combines the stress and energetic criteria, is used. In order to decrease the computational cost, a semi-analytical application of this model is proposed. This is intended to make the approach more interesting to be implemented in an industrial environment. The accuracy of the prediction of the failure load is enhanced by means of the Finite Element method. The reliability of both the semi-analytical and Finite Element approaches is verified by comparing the model predictions with experimental data issued from double-notched Arcan and tubular specimen geometries. The aim of the pre-design phase is to identify the critical area in the whole range of the application of the studied geometry. Therefore, the realization of a parametric study is required in order to build a response surface. In the present study, this has been achieved by means of spatial interpolation using the Kriging model.
115

Une modélisation de la résistance en flexion du pin maritime utilisé en construction / A modeling of timber bending strength in maritime pine

Grazide, Cecile 02 December 2014 (has links)
Dans le cas du bois massif, les résistances en flexion et en traction peuvent être altérées par la présence de défauts. Les nœuds et la distorsion du fil qui en découle, sont les causes de la diminution du rendement mécanique des sections de poutres de structure. A ce jour, l’effet de ces défauts sur la perte de résistance de l’élément de structure ne peut être quantifié avec exactitude. Le classement mécanique du bois de structure n’est alors pas optimal et ne permet pas de valoriser les éléments de fortes résistances. La présente étude a pour objectif d’étudier l’influence de la nodosité sur le rendement mécanique de poutres en Pin Maritime dans le but d’en améliorer son classement mécanique. Cette étude s’appuie sur une base de données recensant les propriétés mécaniques et physiques de poutres de grandes dimensions ainsi que les propriétés géométriques des nœuds présents sur ces éléments. Différents outils statistiques sont utilisés afin de définir les variables explicatives et leurs pouvoirs prédictifs sur la résistance mécanique de ces composants structurels. De ces analyses, il ressort que certaines caractéristiques propres aux nœuds sont significatives et permettent d’améliorer la prédiction de la résistance. Des modélisations éléments finis de tronçons de poutres présentant un nœud sont proposées pour justifier la présence de ces paramètres dans les modèles prédictifs et afin de compléter cette base de données par des propriétés mécaniques. Ces modélisations numériques, accompagnées d’un critère de ruine, permettent d’établir des courbes de performances mécaniques en présence d’un nœud. Ces données numériques sont comparées aux résultats expérimentaux afin de vérifier la fiabilité de l’approche proposée. / The bending and tensile strengths of timber can be reduced by the presence of heterogeneities. The knots and the local slope of grain in the surrounding area are the most relevant. Nowadays, the effect of knots reduces the stiffness and the strength of structural elements. The Timber grading is not optimized and does not promote the strongest beams for a timber engineering use. The goal of this study is to evaluate the influence of knots on the bending strength of beams in Maritime Pine, order to improve their timber grading. This work is focused on a database, which takes into account the mechanical and the physical properties of beams and specific geometrical parameters relative to knots detected in elements. Several statistical tools like neural networks are used to define the explanatory variables and their predictive powers of the bending strength. From these analyses, it is shown that some variables characterizing the knots are pertinent and allow the improvement of the prediction of the strength. To justify the presence of these variables in the predictive equations, finite element simulations of single knot are proposed. These numerical computations associated to a fracture criterion allow the establishment of strength performance curves due to the presence of knot in an elementary loaded volume (tension and bending configurations). These numerical data are compared to the experimental results in the aim to verify the reliability of the finite element approach.
116

Multi-criteria Mapping and Scheduling of Workflow Applications onto Heterogeneous Platforms

Rehn-Sonigo, Veronika 07 July 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur le placement et l'ordonnancement d'applications de flux de données sur des plates-formes hétérogènes. Dans ce contexte, nous nous concentrons sur trois types différents d'applications :<br />Placement de répliques dans les réseaux hiérarchiques - Dans ce type d'application, plusieurs clients émettent des requêtes à quelques serveurs et la question est : où doit-on placer des répliques dans le réseau afin que toutes les requêtes puissent être traitées. Nous discutons et comparons plusieurs politiques de placement de répliques dans des réseaux hiérarchiques en respectant des contraintes de capacité de serveur, de qualité<br />de service et de bande-passante. Les requêtes des clients sont connues a priori, tandis que le nombre et la position des serveurs sont à déterminer. L'approche traditionnelle dans la littérature est de forcer toutes les requêtes d'un client à être traitées par le serveur le plus proche dans le réseau hiérarchique. Nous introduisons et étudions deux nouvelles politiques. Une principale contribution de ce travail est l'évaluation de l'impact de ces nouvelles politiques sur le coût total de replication. Un autre but important est d'évaluer l'impact de l'hétérogénéité des serveurs, d'une perspective à la<br />fois théorique et pratique. Nous établissons plusieurs nouveaux résultats de complexité, et nous présentons plusieurs heuristiques <br />efficaces en temps polynomial.<br />Applications de flux de données - Nous considérons des applications de flux de données qui peuvent être exprimées comme des graphes linéaires. Un exemple pour ce type d'application est le traitement numérique d'images, où les images sont traitées en<br />régime permanent. Plusieurs critères antagonistes doivent être optimisés, tels que le débit et la latence (ou une combinaison) ainsi que la latence et la fiabilité (i.e. la probabilité que le calcul soit réussi) de l'application. Bien qu'il soit possible de trouver<br />des algorithmes polynomiaux simples pour les plates-formes entièrement homogènes, le problème devient NP-difficile lorsqu'on s'attaque à des plates-formes hétérogènes. Nous présentons une formulation en programme linéaire pour ce dernier problème. De<br />plus nous introduisons plusieurs heuristiques bi-critères efficaces en temps polynomial, dont la performance relative est évaluée par des simulations extensives. Dans une étude de cas, nous présentons des simulations et des résultats expérimentaux (programmés en MPI) pour le graphe d'application de l'encodeur JPEG sur une grappe de calcul.<br />Applications complexes de streaming - Considérons l'exécution d'applications organisées en arbres d'opérateurs, i.e. l'application en régime permanent d'un ou plusieurs arbres d'opérateurs à données multiples qui doivent être mis à jour continuellement à différents endroits du réseau. Un premier but est de fournir à l'utilisateur un ensemble de processeurs qui doit être acheté ou loué pour garantir que le débit minimum de l'application en régime permanent soit atteint. Puis nous étendons notre modèle aux applications multiples : plusieurs applications concurrentes sont exécutées en même<br />temps dans un réseau, et on doit assurer que toutes les applications puissent atteindre leur débit requis. Une autre contribution de ce travail est d'apporter des résultats de complexité pour des instances variées du problème. La troisième contribution est l'élaboration<br />de plusieurs heuristiques polynomiales pour les deux modèles d'application. Un objectif premier des heuristiques pour applications concurrentes est la réutilisation des résultats intermédiaires qui sont partagés parmi différentes applications.
117

Modélisation de la décharge négative dans les longs intervalles d'air - Application à la foudre

Rakotonandrasana, Jean 11 December 2008 (has links) (PDF)
Ce travail porte sur la modélisation de la décharge négative dans les grands intervalles d'air soumis à des ondes de tension de type bi-exponentielles (foudre ou manœuvre) ou constantes. Ainsi, un modèle dynamique et autonome permettant de prédire l'ensemble des paramètres macroscopiques de la décharge négative et tenant compte des différentes phases de propagation (initiation de la première couronne, système pilote, formation des leaders d'électrode et spatiaux, jonctions et ré-illuminations, saut final) jusqu'à l'arc en retour, est présenté. Ce modèle est basé sur des schémas électriques équivalents dont les paramètres varient avec le temps en fonction des caractéristiques du canal et de la géométrie de la décharge, les lois de l'électromagnétisme et la théorie des gaz. Les propagations des leaders et des streamers sont basées sur des critères de champs électriques tenant compte de l'aspect aléatoire du trajet de la décharge.<br />Le modèle permet de déterminer les caractéristiques spatio-temporelles de la décharge telles que le courant du leader (canal principal), la charge correspondante, des trajectoires plausibles, sa vitesse instantanée, le gradient de potentiel et le rayon thermique du leader négatif d'électrode, la puissance et l'énergie injectées dans l'intervalle, l'instant et la tension d'amorçage ainsi que l'évolution de l'arc en retour. Il permet également, pour une configuration d'électrodes donnée, de déterminer la tension de claquage U50, constituant ainsi un outil appréciable pour le dimensionnement des structures isolantes. Les résultats issus de ce modèle sont en bon accord avec ceux obtenus expérimentalement.<br />Un modèle de foudre négatif a été également établi en se basant sur la grande similarité observée entre les grandes étincelles de laboratoire et les décharges atmosphériques. Les caractéristiques obtenues à partir de ce modèle ont été trouvées conformes aux mesures effectuées lors des décharges naturelles. L'environnement électromagnétique associé au précurseur de foudre a été ensuite caractérisé et les champs électriques et magnétiques obtenues sont aussi en bon accord avec celles relevées expérimentalement.
118

Analyse de la stabilité et prévision de la transition laminaire / turbulent de l'écoulement proche paroi sur l'avant-corps d'un véhicule hypersonique

Ferrier, Marc 22 May 2008 (has links) (PDF)
L'objectif de cette étude est de prévoir la transition laminaire/turbulent de la couche limite sur l'avant-corps d'un véhicule hypersonique évoluant à des nombres de Mach compris entre 4 et 8 et à des altitudes variant de 20 à 30km. L'approche utilisée est celle de la croissance modale des perturbations (stabilité linéaire locale) couplée à la méthode du eN.<br />Un code de stabilité a été créé pour cette étude. Il utilise un modèle spécifique pour le calcul des coefficients de transport et de chaleur spécifique de l'air.<br />Un code Navier-Stokes (Fluent) est utilisé pour le calcul des profils de base. Cette approche a été validée sur plaque plane par comparaison avec des résultats de stabilité obtenus à partir de profils Levy-Lees.<br />Les facteurs N sont calculés par la méthode enveloppe, en suivant des chemins d'intégration localement tangents à la vitesse de groupe. Une méthode originale du calcul, en approche spatiale, de la direction de cette vitesse est proposée.<br />Les résultats de stabilité montrent un effet déstabilisant de la couche entropique due à l'émoussement du nez du véhicule. Cependant, l'instabilité majoritaire mise en évidence est de type CrossFlow. Dans certains cas, le premier mode oblique est aussi important. La présence du second mode droit est anecdotique. Une étude paramétrique permet de comparer les facteurs N par rapport au critère NASP (Rd2/Me) lorsque l'altitude puis l'incidence de vol varient. Dans le premier cas, les résultats concordent, dans le second, ils divergent. Ainsi, un nouveau critère basé sur la quantité d'écoulement transverse est développé. Ce dernier est en adéquation avec les résultats du calcul de stabilité pour tous les cas considérés.
119

POLITIQUES DE MAINTENANCE CONDITIONNELLE POUR UN SYSTEME A DEGRADATION CONTINUE SOUMIS A UN ENVIRONNEMENT STRESSANT

Deloux, Estelle 07 October 2008 (has links) (PDF)
L'un des challenges de l'optimisation de la maintenance est la production de modèles décisionnels conjuguant performance au niveau stratégique et au niveau opérationnel. Une hypothèse classique est de considérer que le niveau de dégradation du système peut être modélisé par un processus stochastique particulier caractérisé en régime stationnaire sans tenir compte des effets de l'environnement d'exploitation du système. Cette hypothèse peut être vue comme un des facteurs entraînant des écarts entre les performances attendues et celles mesurées. Par contre, de nombreux travaux sont développés dans le cadre de la fiabilité pour l'intégration de l'impact de l'environnement. L'objectif de ce manuscrit est de développer des outils d'aide à la décision de maintenance pour des systèmes à dégradation graduelle évoluant dans un environnement aléatoire stressant. Nous proposons différentes modélisations de l'environnement et de son impact sachant qu'il peut influencer soit la défaillance du système, soit le processus de dégradation. Nous explicitons les relations mutuelles entre l'environnement et le processus de dégradation et nous construisons différentes politiques de maintenance adaptatives qui se basent sur l'état de dégradation du système mais également sur l'évolution de l'environnement. De plus, les politiques proposées permettent de se baser soit uniquement sur une connaissance a priori du système, soit d'intégrer l'information disponible en ligne concernant l'environnement. Nous chercherons dans ce manuscrit à proposer de nouvelles approches de maintenance combinant performances théoriques attendues d'un côté et réalité et pragmatisme opérationnels d'un autre.
120

Modélisations des glissements de terrain comme un problème de bifurcation

Huynh, Dat Vu Khoa 02 November 2005 (has links) (PDF)
Les catastrophes naturelles sont de plus en plus fréquentes et sont à l'origine de conséquences socio-économiques souvent graves et coûteuses. La prévision de ces risques, notamment en ce qui concerne les glissements de terrain, est dès lors indispensable. Dans cette problématique, la modélisation numérique doit être pertinente et prédictive. Actuellement, les glissements sous une faible pente (inférieure à 14°) voire très faible (inférieure à 8°), où la rupture est souvent de type diffuse, ne peuvent être expliqués ni par les méthodes empiriques classiques ni par l'analyse limite traditionnelle (théorie de plasticité). De nouvelles approches sont donc nécessaires pour rendre compte de ces mécanismes de glissement. La condition suffisante de stabilité de Hill (1958) basée sur le signe du travail du second ordre pourrait être un critère pertinent pour analyser ces modes de rupture diffus.<br /><br />Ce travail de thèse porte d'une part sur l'analyse et l'implémentation du critère de stabilité de Hill dans deux codes de calculs par éléments finis (LAGAMINE et PLAXIS) et d'autre part sur leur application, dans le cadre des modélisations numériques de problèmes aux limites non linéaires, aux glissements de terrain.<br /><br />L'étude du travail du second ordre, menée sur des modèles de comportement incrémentaux non linéaires, montre que certains sols exhibent de larges domaines potentiellement instables à l'intérieur strict du critère limite de plasticité. Ces analyses sont corroborées par les résultats expérimentaux.<br /><br />Nous montrons, dans ces travaux, par des approches analytique et numérique dans le cadre de la théorie de l'élasto-plasticité, que le critère de Hill est toujours vérifié avant la condition limite de plasticité (critère de Mohr-Coulomb) et le critère de localisation de déformation (critère de Rice).<br /><br />L'utilisation du critère de Hill nous permet d'analyser le glissement de la côtière de Trévoux après une période de fortes précipitations en 1983. Ces travaux de modélisations ont été menés dans le cadre d'un couplage hydromécanique en milieu non saturé.<br /><br />La même démarche a été menée pour l'analyse du glissement catastrophique du versant de Las Colinas (El Salvador) provoqué par un séisme en 2001. La définition du chargement considéré est basée sur une méthode de type pseudo-statique.

Page generated in 0.0803 seconds