Spelling suggestions: "subject:"modèles linéaire""
11 |
Modèles linéaires généralisés à effets aléatoires : contributions au choix de modèle et au modèle de mélangeMartinez, Marie-José 29 September 2006 (has links) (PDF)
Ce travail est consacré à l'étude des modèles linéaires généralisés à effets aléatoires (GL2M). Dans ces modèles, sous une hypothèse de distribution normale des effets aléatoires, la vraisemblance basée sur la distribution marginale du vecteur à expliquer n'est pas, en général, calculable de façon formelle. Dans la première partie de notre travail, nous revisitons différentes méthodes d'estimation non exactes par le biais d'approximations réalisées à différents niveaux selon les raisonnements. La deuxième partie est consacrée à la mise en place de critères de sélection de modèles au sein des GL2M. Nous revenons sur deux méthodes d'estimation nécessitant la construction de modèles linéarisés et nous proposons des critères basés sur la vraisemblance marginale calculée dans le modèle linéarisé obtenu à la convergence de la procédure d'estimation. La troisième et dernière partie s'inscrit dans le cadre des modèles de mélanges de GL2M. Les composants du mélange sont définis par des GL2M et traduisent différents états possibles des individus. Dans le cadre de la loi exponentielle, nous proposons une méthode d'estimation des paramètres du mélange basée sur une linéarisation spécifique à cette loi. Nous proposons ensuite une méthode plus générale puisque s'appliquant à un mélange de GL2M quelconques. Cette méthode s'appuie sur une étape de Metropolis-Hastings pour construire un algorithme de type MCEM. Les différentes méthodes développées sont testées par simulations.
|
12 |
Estimation dans les modèles linéaires généralisés à effets aléatoiresTrottier, Catherine 02 July 1998 (has links) (PDF)
Ce travail est consacré à l'étude et à la mise en place de méthodes d'estimation de paramètres dans les modèles linéaires généralisés à effets aléatoires (GL2M). Dans ces modèles, sous une hypothèse gaussienne de distribution des effets aléatoires $\xi$, la vraisemblance basée sur la distribution marginale du vecteur à expliquer $Y$ n'est pas en général explicitement calculable. Diverses approximations peuvent être appliquées. Nous distinguons pour cela deux approches : l'une conditionnelle et l'autre marginale. En suivant la première, nous proposons une méthode qui consiste en une maximisation de la distribution jointe de ($Y,\xi$) avant de procéder à l'estimation des paramètres. Ceci équivaut à une linéarisation conditionnelle du modèle. Dans la seconde approche, nous étudions une démarche marginale qui repose sur l'approximation des deux premiers moments marginaux de $Y$ puis sur l'utilisation de la quasi-vraisemblance. Nous étendons à d'autres lois et fonctions de lien la méthode développée par Gilmour et al. dans le cas d'un modèle binomial-lien probit. Nous comparons les différentes méthodes selon une échelle de déconditionnement. Dans un deuxième temps, nous introduisons une notion d'hétérogénéité dans les GL2M. Cette hétérogénéité traduit des comportements des effets aléatoires distincts selon les environnements. Elle est modélisée en attribuant à chaque environnement un paramètre de variance différent pour ces effets. Nous proposons alors une méthode d'estimation combinant à la fois la technique de linéarisation de la démarche conditionnelle précédente et l'utilisation de l'algorithme EM, bien adapté à cette situation d'hétérogénéité dans le cas linéaire.
|
13 |
Modélisation de la trajectoire criminelle de jeunes contrevenants à l'aide de modèles linéaires généralisés mixtesVeilleux, Lucie 11 April 2018 (has links)
La régression linéaire est souvent utilisée en pratique afin de trouver une relation entre une variable réponse et une ou plusieurs variable(s) explicative(s). Une lacune de cette méthode est qu'elle est inappropriée si la variable réponse en est une de dénombrement. Dans un tel cas, la régression de Poisson doit être utilisée. Ce mémoire décrira de façon détaillée la régression de Poisson. Les propriétés de la loi de Poisson seront énoncées dans le but d'expliquer la régression de Poisson. Les équations d'estimation généralisées (GEE) seront ensuite introduites dans un éventuel but d'élargir la régression de Poisson dans les situations où les données sont corrélées (par exemple, les données longitudinales). Les modèles linéaires généralisés mixtes seront aussi considérés. Les modèles additifs généralisés seront ensuite brièvement expliqués et nous présenterons finalement une étude détaillée d'une base de données sur les trajectoires criminelles de jeunes contrevenants.
|
14 |
Validation de modèles qualitatifs de réseaux de régulation génique: une méthode basée sur des techniques de vérification formelleBatt, Grégory 24 February 2006 (has links) (PDF)
Les réseaux de régulation génique contrôlent le développement et le fonctionnement des organismes vivants. Etant donné que la plupart des réseaux de régulation génique d'intérêt biologique sont grands et que leur dynamique est complexe, la compréhension de leur fonctionnement est un problème biologique majeur. De nombreuses méthodes ont été développées pour la modélisation et la simulation de ces systèmes. Etonnamment, le problème de la validation de modèle n'a reçu jusqu'à récemment que peu d'attention. Pourtant, cette étape est d'autant plus importante que dans le contexte de la modélisation de réseaux de régulation génique, les systèmes modélisés sont complexes et encore imparfaitement connus.<br /><br />Dans cette thèse, nous proposons une approche permettant de tester la validité de modèles de réseaux de régulation génique en comparant les prédictions obtenues avec les données expérimentales. Plus spécifiquement, nous considérons dans ce travail une classe de modèles qualitatifs définis en termes d'équations différentielles linéaires par morceaux (LPM). Ces modèles permettent de capturer les aspects essentiels des régulations géniques, tout en ayant une forme mathématique simple qui facilite leur analyse symbolique. Egalement, nous souhaitons utiliser les informations qualitatives sur la dynamique du système données par les changements du sens de variation des concentrations des protéines du réseau. Ces informations peuvent être obtenues expérimentalement à partir de profils d'expression temporels.<br /><br />La méthode proposée doit satisfaire deux contraintes. Premièrement, elle doit permettre d'obtenir des prédictions bien adaptées à la comparaison avec le type de données considéré. Deuxièmement, étant donné la taille et la complexité des réseaux d'intérêt biologique, la méthode doit également permettre de vérifier efficacement la cohérence entre prédictions et observations.<br /><br />Pour répondre à ces deux contraintes, nous étendons dans deux directions une approche précédemment développée par de Jong et collègues pour l'analyse symbolique des modèles LPM qualitatifs. Premièrement, nous proposons d'utiliser une représentation plus fine de l'état du système, permettant d'obtenir, par abstraction discrète, des prédictions mieux adaptées à la comparaison avec les données expérimentales. Deuxièmement, nous proposons de combiner cette méthode avec des techniques de model checking. Nous montrons que l'utilisation combinée d'abstraction discrète et de model checking permet de vérifier efficacement les propriétés dynamiques, exprimées en logique temporelle, des modèles continus.<br /><br />Cette méthode a été implémentée dans une nouvelle version de l'outil Genetic Network Analyzer (GNA 6.0). GNA 6.0 a été utilisé pour la validation de deux modèles grands et complexes de l'initiation de la sporulation chez <I>B. subtilis</I> et de la réponse au stress nutritionnel chez <I>E. coli</I>. Nous avons ainsi pu vérifier que les prédictions obtenues étaient en accord avec la plupart des données expérimentales disponibles dans la littérature. Plusieurs incohérences ont également été identifiées, suggérant des révisions des modèles ou la réalisation d'expériences complémentaires. En dehors d'une contribution à une meilleure compréhension du fonctionnement de ces systèmes, ces deux études de cas illustrent plus généralement que, par la méthode proposée, il est possible de tester si des prédictions obtenues pour des modèles complexes sont cohérentes avec un large éventail de propriétés observables expérimentalement.
|
15 |
Suivi de la gestion des zones humides camarguaises par télédétection en référence à leur intérêt avifaunistiqueDavranche, Aurélie 25 April 2008 (has links) (PDF)
Au rang des milieux naturels les plus menacés, les zones humides remplissent pourtant un grand nombre de fonctions utiles à l'homme. Les milieux naturels de Camargue n'échappent pas aux impacts des changements globaux et subissent une artificialisation croissante de leur gestion, motivée par l'intensification des pratiques agricoles et des usages socio-économiques. La télédétection a été présentée comme un outil complémentaire prometteur pour le monitoring des zones humides. Nous montrons dans cette étude qu'elle permet, aujourd'hui, grâce au mode multitemporel et multispectral des satellites de dernière génération, de s'affranchir d'un ré-échantillonnage jusque là nécessaire à la reproductibilité des méthodes traditionnelles. Pour deux habitats naturels dominants de Camargue abritant des populations d'oiseaux vulnérables ou à fort intérêt cynégétique, nous avons élaboré des formules fiables et reproductibles permettant de caractériser l'évolution de communautés végétales et d'obtenir une vision mensuelle des zones inondées sur l'ensemble du delta. La méthodologie employée se base sur deux types de méthodes statistiques. La première, qualitative, détermine la présence de groupements végétaux, puis de l'eau à travers une végétation plus ou moins dense. La seconde, quantitative, permet de suivre des paramètres déterminant la qualité et l'intérêt avifaunistique des roselières de Camargue. Les modèles élaborés dans cette étude seront d'une grande valeur pour proposer des modes de gestion adaptés aux objectifs de préservation et de développement durable des zones humides méditerranéennes.
|
16 |
Synthèse de filtres de diagnostic pour les systèmes modélisés sous forme LPVGrenaille, Sylvain 18 July 2006 (has links) (PDF)
Cette thèse aborde le problème de diagnostic à base de modèles pour la classe des systèmes dynamiques modélisés sous forme LPV (Linéaires à Paramètres Variants). Nous présentons une nouvelle méthode de synthèse de filtres de détection et localisation robustes. Une condition suffisante est établie pour garantir les performances en terme de sensibilité du signal indicateur de défauts vis à vis de la classe de défauts considérés. La méthode proposée permet également de formuler des contraintes de robustesse vis-à-vis des paramètres variants dans le temps et des perturbations exogènes. L'approche permet de prendre en compte la loi de commande dans la synthèse du filtre de diagnostic. Le problème de synthèse est formulé comme un problème d'optimisation convexe sous contraintes et pouvant être résolu efficacement par les techniques LMI (Inégalités Linéaires Matricielles).<br />La méthodologie est appliquée à des exemples académiques et à un système industriel se prêtant particulièrement bien à une modélisation LPV, le circuit secondaire d'une centrale nucléaire. Les résultats obtenus montrent l'efficacité de la méthode.
|
17 |
Outils statistiques pour la construction et le choix de modèles en fiabilité des logicielsEl-Aroui, Mhamed-Ali 20 September 1996 (has links) (PDF)
Ce travail est consacré à l'étude de méthodes statistiques pour l'évaluation de la fiabilité des logiciels. Son but principal est de fournir des outils statistiques permettant de construire et ensuite valider des modèles en tenant compte des spécificités des logiciels étudiés. Pour ce faire deux outils sont utilisés : les modèles linéaires généralisés (paramétriques et non-paramétriques) et l'analyse statistique bayésienne. La deuxième partie de ce travail est consacrée à l'ètude mathématique des problèmes de validation et de choix de modèles en fiabilité des Logiciels. On y étudie entre autres une approche dite "préquentielle" (prédictive-séquentielle) bien adaptée aux tests d'adéquation aux processus de Poisson. Cette approche semble pouvoir se généraliser à un grand nombre de modèles de fiabilité des logiciels.
|
18 |
Contrôle et stabilité Entrée-Etat en dimension infinie du profil du facteur de sécurité dans un plasma Tokamak Infinite dimensional control and Input-to-State stability of the safety factor profile in a Tokamak plasmaBribiesca argomedo, Fédérico 12 September 2012 (has links) (PDF)
Dans cette thèse, on s'intéresse au contrôle du profil de facteur de sécurité dans un plasma tokamak. Cette variable physique est liée à plusieurs phénomènes dans le plasma, en particulier des instabilités magnétohydrodynamiques (MHD). Un profil de facteur de sécurité adéquat est particulièrement important pour avoir des modes d'opération avancés dans le tokamak, avec haut confinement et stabilité MHD. Pour cela faire, on se focalise sur la commande du gradient du profil de flux magnétique poloidal dans le tokamak. L'évolution de cette variable est donnée par une équation de diffusion avec des coefficients distribuées et temps-variants. En utilisant des techniques de type Lyapunov et les propriétés de stabilité entrée-état du système on propose une loi de commande robuste qui prend en compte des contraintes non-linéaires dans l'action imposées par la physique des actionneurs.
|
19 |
Contrôle et stabilité Entrée-Etat en dimension infinie du profil du facteur de sécurité dans un plasma Tokamak / Infinite Dimensional Control and Input-to-State Stability of the Safety Factor Profile in a Tokamak PlasmaBribiesca Argomedo, Federico 12 September 2012 (has links)
Dans cette thèse, on s'intéresse au contrôle du profil de facteur de sécurité dans un plasma tokamak. Cette variable physique est liée à plusieurs phénomènes dans le plasma, en particulier des instabilités magnétohydrodynamiques (MHD). Un profil de facteur de sécurité adéquat est particulièrement important pour avoir des modes d'opération avancés dans le tokamak, avec haut confinement et stabilité MHD. Pour cela faire, on se focalise sur la commande du gradient du profil de flux magnétique poloidal dans le tokamak. L'évolution de cette variable est donnée par une équation de diffusion avec des coefficients distribuées et temps-variants. En utilisant des techniques de type Lyapunov et les propriétés de stabilité entrée-état du système on propose une loi de commande robuste qui prend en compte des contraintes non-linéaires dans l'action imposées par la physique des actionneurs. / In this thesis, we are interested in the control of the safety factor profile or q-profile in a tokamak plasma. This physical quantity has been found to be related to several phenomena in the plasma, in particular magnetohydrodynamic (MHD) instabilities. Having an adequate safety factor profile is particularly important to achieve advanced tokamak operation, providing high confinement and MHD stability. To achieve this, we focus in controlling the gradient of the poloidal magnetic flux profile. The evolution of this variable is given by a diffusion equation with distributed time-varying coefficients. Based on Lyapunov techniques and the Input-to-State stability properties of the system we propose a robust control law that takes into account nonlinear constraints on the control action imposed by the physical actuators.
|
20 |
Sequential detection and isolation of cyber-physical attacks on SCADA systems / Détection et localisation séquentielle d’attaques cyber-physiques aux systèmes SCADADo, Van Long 17 November 2015 (has links)
Cette thèse s’inscrit dans le cadre du projet « SCALA » financé par l’ANR à travers le programme ANR-11-SECU-0005. Son objectif consiste à surveiller des systèmes de contrôle et d’acquisition de données (SCADA) contre des attaques cyber-physiques. Il s'agit de résoudre un problème de détection-localisation séquentielle de signaux transitoires dans des systèmes stochastiques et dynamiques en présence d'états inconnus et de bruits aléatoires. La solution proposée s'appuie sur une approche par redondance analytique composée de deux étapes : la génération de résidus, puis leur évaluation. Les résidus sont générés de deux façons distinctes, avec le filtre de Kalman ou par projection sur l’espace de parité. Ils sont ensuite évalués par des méthodes d’analyse séquentielle de rupture selon de nouveaux critères d’optimalité adaptés à la surveillance des systèmes à sécurité critique. Il s'agit donc de minimiser la pire probabilité de détection manquée sous la contrainte de niveaux acceptables pour la pire probabilité de fausse alarme et la pire probabilité de fausse localisation. Pour la tâche de détection, le problème d’optimisation est résolu dans deux cas : les paramètres du signal transitoire sont complètement connus ou seulement partiellement connus. Les propriétés statistiques des tests sous-optimaux obtenus sont analysées. Des résultats préliminaires pour la tâche de localisation sont également proposés. Les algorithmes développés sont appliqués à la détection et à la localisation d'actes malveillants dans un réseau d’eau potable / This PhD thesis is registered in the framework of the project “SCALA” which received financial support through the program ANR-11-SECU-0005. Its ultimate objective involves the on-line monitoring of Supervisory Control And Data Acquisition (SCADA) systems against cyber-physical attacks. The problem is formulated as the sequential detection and isolation of transient signals in stochastic-dynamical systems in the presence of unknown system states and random noises. It is solved by using the analytical redundancy approach consisting of two steps: residual generation and residual evaluation. The residuals are firstly generated by both Kalman filter and parity space approaches. They are then evaluated by using sequential analysis techniques taking into account certain criteria of optimality. However, these classical criteria are not adequate for the surveillance of safety-critical infrastructures. For such applications, it is suggested to minimize the worst-case probability of missed detection subject to acceptable levels on the worst-case probability of false alarm and false isolation. For the detection task, the optimization problem is formulated and solved in both scenarios: exactly and partially known parameters. The sub-optimal tests are obtained and their statistical properties are investigated. Preliminary results for the isolation task are also obtained. The proposed algorithms are applied to the detection and isolation of malicious attacks on a simple SCADA water network
|
Page generated in 0.0678 seconds