• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 45
  • 14
  • Tagged with
  • 228
  • 68
  • 68
  • 51
  • 28
  • 25
  • 24
  • 19
  • 19
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Confinement quantique dans les nanocristaux supraconducteurs et transport électronique dans les réseaux de nanocristaux métalliques

Moreira, Helena 18 December 2009 (has links) (PDF)
Une première partie de ce travail de thèse consiste au développement d'une nouvelle synthèse chimique de nanocristaux supraconducteurs de plomb ayant la particularité de produire de grandes quantités de nanocristaux monodisperses. Cette synthèse nous permet de réaliser des mesures précises des propriétés thermodynamiques supraconductrices en fonction de la taille des nanocristaux. Nous présentons des mesures de susceptibilité magnétique de ces nanocristaux afin d'analyser l'amplitude de l'effet Meissner en fonction de la taille des particules. Pour des tailles de nanoparticules de plomb comprises entre 10 et 30 nm, nous avons trouvé que l'amplitude de l'effet Meissner est plus faible de plusieurs ordres de grandeurs que prédite par la théorie de Ginzburg-Landau. Nous avons aussi trouvé que cet effet est totalement supprimé pour des particules de diamètres inférieurs à 16 nm lorsque le spectre électronique devient discret. Ce résultat montre que les effets du confinement quantique altèrent l'état superfluide même pour des tailles supérieures à la taille déterminée par le critère d'Anderson. Ce critère contrôle l'existence des paires de Cooper dans le nanocristal. Dans une seconde partie de cette thèse, nous présentons une étude du transport électronique dans des réseaux de nanocristaux d'or réalisés par la technique de Langmuir. Nous présentons l'évolution des propriétés de conduction électrique et optique de ces réseaux avec le couplage des nanocristaux par des molécules alcanedithiols. Nous montrons que la conductivité du réseau augmente fortement pour de petites chaînes alcanes sans pour autant conduire à un état métallique. Aux basses températures de l'Hélium liquide, les caractéristiques courant-tension mesurées sur ces réseaux montrent un comportement non-linéaire et exhibent une tension seuil VT pour l'établissement d'un courant électronique dans le réseau. Nous analysons ce comportement caractéristique du transport dans un réseau avec blocage de Coulomb avec le modèle de Middleton et Wingreen, lequel identifie le passage du régime isolant au régime conducteur à une transition du second ordre. Au voisinage du point critique VT, on observe que la loi reliant le courant à la tension appliquée suit la relation attendue théoriquement. La valeur de l'exposant trouvé suggère que le transport est dominé par des mécanismes de co-tunneling.
62

Modélisation du comportement mécanique d'assemblages bois avec prise en compte de critères de rupture

Xu, Bohan 09 October 2009 (has links) (PDF)
Les liaisons par broches ou boulons, largement utilisées dans les structures en bois, sont conçues pour transmettre des efforts de cisaillement et des moments de flexion entre les éléments assemblés tels que les poteaux et les poutres dans les portiques traditionnels. Pour ce type de liaison, les assemblages bois-bois sont souvent utilisés avec ou sans renforcement par plaques collées ou contre-plaqué ou autres matériaux. Pour répondre à certaines exigences architecturales, de résistance mécanique et de tenue au feu, les assemblages bois-bois sont souvent remplacés par des assemblages mixtes bois-métal où la plaque métallique est protégée par des éléments en bois. Des essais sont réalisés sur des assemblages bois-métal à organes multiples sollicités en traction parallèle et perpendiculaire aux fibres et en flexion pour disposer de résultats expérimentaux de référence. En se basant sur ces résultats, un modèle éléments finis 3D est développé en utilisant les hypothèses suivantes : une loi matérielle élasto-plastique non linéaire pour l'acier, des lois de contact et de frottement entre les broches métalliques et le bois et une loi élastique parfaitement plastique pour le bois sur la base du critère de Hill associé ou non au critère de Hoffman qui représente la rupture du bois. Pour la modélisation du matériau bois, qui est la partie la plus délicate, différentes approches sont utilisées dans la littérature. Il s'agit de modèles souvent basés sur des critères de plasticité anisotrope comme celui de Hill. Cependant, ce critère ne prend pas en compte la dissymétrie du comportement du bois entre traction et compression et ne tient pas compte du caractère fragile du matériau en traction perpendiculaire au fil de cisaillement. Pour combler ces insuffisances, le critère de Hill est associé au critère de Hoffman qui représente l'évolution du dommage dans le matériau bois par une réduction du modèle d'élasticité. Ce critère est particulièrement adapté au comportement mécanique fragile de la traction perpendiculaire au fil du bois. Ainsi, le critère de Hill gère la plasticité bien acceptée pour les sollicitations du bois en compression et le critère de Hoffman est utilisé pour représenter le comportement fragile du bois en traction perpendiculaire et en cisaillement. La confrontation des résultats numériques et expérimentaux montre que le modèle numérique proposé représente de façon satisfaisante le comportement d'assemblages bois sous différents types de sollicitations. Le modèle ainsi validé est utilisé pour mener des études paramétriques sur des configurations d'assemblages plus variées que celles des essais expérimentaux. Sur la base des résultats du modèle, des expressions analytiques portant sur la prédiction du comportement des assemblages sont proposées ou vérifiées.
63

L'accord de la théorie et de la pratique chez Pyrrhon et Sextus Empiricus

Assaf, Philippe January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
64

Diagnostic d’une classe de systèmes linéaires à commutations : approche à base d’observateurs robustes / Diagnosis of a class of switched linear systems : an approach based on robust observer

Belkhiat, Djamel Eddine Chouaib 05 December 2011 (has links)
Ce travail de thèse porte, en premier lieu et principalement, sur le diagnostic à base de modèle d’une classe de SLC (Systèmes Linéaires à Commutations). Une problématique récurrente dans ce type de problème concerne la prise en considération de façon explicite les deux aspects, continu et discret, constituant un SLC. Dans ce cadre, nous avons proposé une méthodologie de détection et de localisation de défauts qui combine les outils initialement dédiés au diagnostic des systèmes continus et d’autres spécifiques aux SED (Systèmes à Evénement Discrets). L’approche proposée est conçue autour de trois modules : deux types de générateurs de résidus (issus de l’Automatique continue) et un estimateur en-ligne de l’état discret, appelé diagnostiqueur (issu de l’Automatique événementielle). Notre diagnostiqueur utilise les deux types de résidus, provenant de la partie continue, afin d’identifier le mode de fonctionnement du SLC et d’isoler les défauts de capteurs. Les résidus utilisés pour la localisation des défauts de capteurs sont générés à travers un générateur développé autour d’un schéma DOS (Dedicated Observer Scheme) à base d’observateurs hybrides,à la fois robustes vis-à-vis des entrées inconnues et sensibles aux défauts de capteurs. En second lieu, sur la base des résultats obtenus à l’aide de l’approche de diagnostic développée, nous avons proposé une approche préliminaire de synthèse de lois de commande tolérantes aux défauts de capteurs stabilisante via un retour d’état. Cette approche permet de préserver les performances nominales du système (situation non défaillante)en présence d’un défaut de capteurs. L’idée consiste à reconfigurer le retour d’état en remplaçant le vecteur d’état estimé à partir d’une sortie en défaut par un autre estimé à partir d’une sortie saine. La redondance des estimations est assurée dans cette approche par un banc d’observateurs hybrides robustes qui fournit plusieurs estimations correctes des vecteurs d’état et de sorties. / This thesis focuses, in first and foremost, on the model-based diagnosis of a class of SLC (Switched Linear Systems). The basic idea is to consider the continuous and discrete aspects, forming an SLC, explicitly.In this context, we proposed a methodology for detecting and locating faults that combines the tools originally dedicated to the continuous systems and the DES (discrete event systems) diagnosis. The proposed approach is designed around three modules: two types of residual generators (from the continuous Automatic) and anon-line estimator of the discrete state, called diagnoser (from the event Automatic). Our diagnoser uses the residual generators issue from the continuous part to identify the SLC mode and isolate sensor faults.Residues used for fault location sensors are generated through a generator developed around a scheme DOS(Dedicated Observer Scheme) based on hybrid observers. These observers are robust vis-à-vis the unknown input and sensitive to sensor faults. Secondly, based on the obtained results using the previous diagnosis approach, we proposed a preliminary approach for fault-tolerant state-feedback control law synthesis. This approach preserves the nominal performance of the system (as non-defaulting) in the presence of defective sensors. The idea is to reconfigure the state feedback by replacing the state vector estimated from defected output by another estimated from non-defected one. Redundancy estimates is provided in this approach by a bank of robust hybrid observer that provides several accurate estimates of state vectors and outputs.
65

Estimation et sélection de modèle pour le modèle des blocs latents / Estimation and model selection for the latent block model

Brault, Vincent 30 September 2014 (has links)
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données. / Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering.
66

Adaptation des designs de phase II en cancérologie à un critère de jugement censuré / Adaptation of phase II oncology designs to a time-to-event endpoint

Belin, Lisa 30 May 2016 (has links)
La phase II d’un essai clinique représente une étape importante de l’évaluation d’une thérapeutique. Il s’agit d’une étape de sélection ayant pour objectif d’identifier les traitements efficaces, qui seront évalués de manière comparative en phase III, et ceux qui, jugés inefficaces seront abandonnés. Le choix du critère de jugement et la règle de décision sont les éléments essentiels de cette étape de l’essai clinique. En cancérologie, le critère de jugement est principalement de nature binaire (réponse au traitement). Cependant, depuis quelques années, les essais de phase II considèrent également les délais d’événement censurés ou non (délai de survie sans progression). Dans le cadre de ce travail de thèse, nous nous sommes intéressés à ces deux types de critères dans le cas de plans d’expérience à deux étapes comportant une possibilité d’arrêt précoce pour futilité. Les conditions réelles des phases II voient souvent la réalisation pratique de l'essai s'écarter du protocole défini a priori. Les cas les plus fréquents sont l'impossibilité d'évaluer le patient (liée par exemple à un événement intercurrent) ou la réalisation d’un suivi trop court. L’objectif de ce travail de thèse était d'évaluer les répercussions entrainées par ces modifications et de proposer des solutions alternatives. Ce travail comporte deux parties principales. Dans la première partie, nous traitons d’un critère de jugement binaire avec patients non évaluables ; dans la seconde d’un critère censuré avec un suivi plus court. Lorsque le critère de jugement est binaire, le plan d’expérience dit « de Simon » est le plus souvent utilisé. Mais ce plan d’expérience nécessite que la réponse de tous les sujets inclus soit connue au temps d’intérêt clinique choisi. En conséquence, comment devons-nous analyser les résultats de l’essai lorsque certains patients sont non évaluables et quelles sont les conséquences sur les caractéristiques opérationnelles de ce plan ? Plusieurs stratégies ont été envisagées (exclusion, remplacement ou considération des patients non évaluables comme des échecs), l’étude de simulation que nous avons réalisée dans le cadre de ce travail montre qu’aucune de ces stratégies ne permet de respecter les risques de première et de seconde espèce fixés a priori. Pour pallier à ces défaillances, nous avons proposé une stratégie dite de « sauvetage » qui repose sur une reconstruction du plan de Simon à partir des probabilités de réponse sous les hypothèses nulle et alternative sachant que le patient est évaluable. Les résultats de nos études de simulations montrent que cette stratégie permet de minimiser les déviations aux risques de première et de seconde espèce alors qu’il y a moins d’information que planifiée dans l’essai. Depuis la dernière décennie, de nombreux schémas considérant les délais d’événement ont été développés. En pratique, l’approche naïve estime la survie sans progression par un taux brut à un temps fixé et utilise un schéma de Simon pour établir une règle de décision. Case et Morgan ont proposé en 2003 un plan d’expérience comparant les taux de survie sans progression estimés à un temps choisi. Considérant l’ensemble du suivi, Kwak et al. (2013) ont proposé d’utiliser la statistique dite du one-sample log-rank pour comparer la courbe de survie sans progression observée à une courbe théorique. Ce dernier schéma permet d’intégrer le maximum d’information disponible et ainsi d’inclure moins de patients pour tester les mêmes hypothèses. Ce plan d’expérience nécessite cependant un suivi de tous les patients de leur inclusion jusqu’à la fin de l’essai. Cette hypothèse semble peu réaliste ; en conséquence, nous avons proposé une nouvelle stratégie basée sur une modification du schéma de Kwak pour un suivi réduit. (...) / Phase II clinical trials are a key stage in drug development. This screening stage goal is to identify the active drugs which deserve further confirmatory studies in phase III trials from the inactive ones whose development will be stopped. The choice of the endpoint and the decision rules are major elements in phase II trials. In oncology, the endpoint is usually binary (response to treatment). For few years, phase II trials have considered time-to-event data as primary endpoint e.g. progression-free survival. In this work, we studied two-stage designs with futility stop with binary or time-to-event endpoints. In real life, phase II trials deviate from the protocol when patient evaluation is no longer feasible (because of intercurrent event) or when the follow-up is too short. The goal of this work is to evaluate the consequences of these deviations on the planned design and to propose some alternative ways to analyze or plan the trials. This work has two main parts. The first one deals with binary endpoints when some unevaluable patients occur and the second one studies time-to-event endpoints with a reduced follow-up. With binary endpoints, the Simon’s plan is the most often used design in oncology. In Simon’s plans, response at a clinical time point should be available for all the included patients. Therefore, should be analyzed the trial when some patients are unevaluable? What are the consequences of these unevaluable patients on the operating characteristics of the design? Several strategies have been studied (exclusion, replacement, use unevaluable patients as treatment failures), our simulations show that none of these strategies preserve type I and type II error rates planned in the protocol. So, a « rescue » strategy has been proposed by computing the stopping boundaries from the conditional probability of responding for an evaluable patient under null and alternative hypotheses. Although there is less information than required by the protocol, simulations show that the “rescue” strategy minimizes the deviations of type I and type II error rates. For the last decades, several time-to-event designs have been developed. The naive approach established a Simon’s plan with progression-free survival rates estimated by crude rates at clinical time-point. In 2005, Case and Morgan proposed a design comparing progression-free survival rates calculated by Nelson and Aalen estimates. Failure times were incorporated in the estimates but the comparison was defined at a pre-specified time point. Considering the whole follow-up, Kwak et al. proposed to use one-sample log-rank test to compare an observed survival curve to a theoretical survival curve. The maximum amount of information is integrated into this design. Therefore, the design reduces the sample size. In the Kwak’s design, patients must be followed from their inclusions to the end of the trial (no loss to follow-up). In some cases (good prognosis, long duration trial), this hypothesis seems unrealistic and a modification of the Kwak’s design integrating reduced follow-up has been proposed. This restriction has been compared to the original design of Kwak in several censoring scenario. The two new methods have been illustrated using some phase II clinical trials planned in the Institut Curie. They demonstrate the interest of these methods in real life.
67

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle. / New Bayesian optimization algorithm using a sequential Monte-Carlo approach

Benassi, Romain 19 June 2013 (has links)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l’utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d’algorithmes concurrents. / This thesis deals with the problem of global optimization of expensive-to-evaluate functions in a Bayesian framework. We say that a function is expensive-to-evaluate when its evaluation requires a significant amount of resources (e.g., very long numerical simulations).In this context, it is important to use optimization algorithms that can deal with a limited number of function evaluations. We consider here a Bayesian approach which consists in assigning a prior to the function, under the form of a Gaussian random process. The idea is then to choose the next evaluation points using a probabilistic criterion that indicates, conditional on the previous evaluations, the most interesting regions of the research domain for the optimizer. Two difficulties in this approach can be identified: the choice of the Gaussian process prior and the maximization of the criterion. The first problem is usually solved by using a maximum likelihood approach, which turns out to be a poorly robust method, and to which we prefer a fully Bayesian approach. The contribution of this work is the introduction of a new Bayesian optimization algorithm, which maximizes the Expected Improvement (EI) criterion, and provides an answer to both problems thanks to a Sequential Monte Carlo approach. Numerical results on benchmark tests show good performances of our algorithm compared to those of several other methods of the literature.
68

Sur une approche pragmatique de l'endommagement anisotrope par fatigue basée sur un critère de fatigue et ses gradients / A pragmatic anisotropic damage fatigue model based on a failure criterion and its gradients

Manai, Asma 10 February 2018 (has links)
Cette thèse traite d’une approche pragmatique de l'endommagement par fatigue des structures sous un chargement cyclique. Un modèle anisotrope de dommage par fatigue a été développé. L'évolution de la dégradation des propriétés du matériau dépend d’un critère de fatigue (choisi) et de ses gradients. La dégradation du matériau anisotrope guidera la propagation des dommages. La propagation des dommages dépend principalement des crêtes de la «surface» du critère (gradients zéro). L'approche proposée décrit l'amorçage, la propagation des dommages et la rupture structurale sous un chargement multiaxial en fatigue. Pour chaque élément fini, des distributions anisotropes non homogènes des propriétés du matériau sont associées. Schématiquement, il apparaît comme un «surfer» matériel sur la «surface» du critère et les dommages suivent la crête de la «surface» du critère (niveau et gradient). Un critère d'approche globale, basé sur des invariants du tenseur des contraintes, est adopté. La réduction des propriétés des matériaux est affectée à un certain nombre de cycles et à un niveau global de contraintes, en utilisant une courbe de Wöhler expérimentale. Deux formes simplifiées du modèle sont proposées et les résultats sont comparés avec un exemple de référence expérimental (plaque cruciforme) et un cas industriel (pale d’une éolienne d’EDF). Une cartographie avec le critère de Dang Van est également calculée pour analyser les résultats numériques. / A new practical engineering methodology for the analysis of structures under cyclic loading is proposed in this work . A new anisotropic fatigue damage model is developed. The evolution of material properties degradation depends on a failure criterion and its gradient. The anisotropic material degradation will guide the damage propagation. The propagation of damage is mainly depending on the ridges of the criterion’s « surface » (zero gradients). The proposed approach can describe the initiation and propagation of the damage until the structural failure under fatigue loading. For each finite element, non-homogeneous anisotropic distributions of material properties are associated. Schematically, it seems like a material « surfing » on the criterion’s « surface » and damages follow the crest of the criterion’s « surface » (level and gradient). A global approach criterion, based on invariants of the stress tensor, is adopted. The reduction of material properties is assigned to a number of cycles and a global level of stresses, using an experimental Wöhler curve. Two simplified forms of the model are proposed and results are compared with a cruciform experimental reference example and an industrial case. A mapping with Dang Van criterion is also computed to analyze the numerical results.
69

Au-delà des moindres carrés : mesurer les conséquences d'un modèle de régression linéaire surparamétré lors d'une application en cardiologie

Privé, Rébecca 10 1900 (has links)
No description available.
70

Caractérisation, Modélisation et Contrôle des Scénarios Avancés dans le Tokamak Européen JET

Tresset, Guillaume 26 September 2002 (has links) (PDF)
Les scénarios avancés, développés depuis moins d'une dizaine d'année avec la découverte des barrières internes de transport et la maîtrise du profil de courant, insufflent un nouvel élan au tokamak en direction d'un futur réacteur à fusion thermonucléaire contrôlée. Le Joint European Torus (JET) installé au Royaume-Uni, est actuellement le dispositif expérimental le plus performant au monde en terme de puissance fusion. Il a permis d'acquérir une riche expertise sur ces régimes à confinement amélioré. La réduction du transport turbulent, désormais indissociable de l'optimisation de la forme du profil de courant - obtenue par exemple avec l'onde hybride ou le courant autogénéré de bootstrap, peut être caractérisée simplement à l'aide d'un critère qui donne accès à la plupart des informations utiles concernant les barrières . Ses deux principaux domaines d'utilisation sont l'analyse des bases de données et les applications temps réel. Les modèles de transport dits de courbe en « S » exhibent des propriétés intéressantes que conforte l'expérience, tandis que les dépendances non-linéaires et multivariables de la diffusivité thermique du plasma peuvent être approchées grâce à un réseau de neurones, suggérant un nouveau moyen d'investigation et de modélisation du transport. Enfin, les toutes premières démonstrations expérimentales de contrôle en temps réel des barrières internes de transport et du profil de courant ont été réalisées sur JET, ouvrant la voie à des systèmes d'asservissement sophistiqués.

Page generated in 0.0486 seconds