• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 10
  • 9
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 77
  • 22
  • 20
  • 20
  • 17
  • 16
  • 15
  • 15
  • 12
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Revisiting stormwater quality conceptual models in a large urban catchment : Online measurements, uncertainties in data and models / Révision des modèles conceptuels de qualité des eaux pluviales sur un grand bassin versant urbain : Mesures en continue, incertitudes sur les données et les modèles

Sandoval Arenas, Santiago 05 December 2017 (has links)
Les modèles de Rejets Urbains par Temps de Pluie (MRUTP) de Matières en Suspension (MES) dans les systèmes d’assainissement urbains sont essentiels pour des raisons scientifiques, environnementales, opérationnelles et réglementaires. Néanmoins, les MRUTP ont été largement mis en question, surtout pour reproduire des données mesurées en continu à l’exutoire des grands bassins versants. Dans cette thèse, trois limitations potentielles des MRUTP traditionnels ont été étudiées dans un bassin versant de 185 ha (Chassieu, France), avec des mesures en ligne de 365 événements pluvieux : a) incertitudes des données dû aux conditions sur le terrain, b) incertitudes dans les modèles hydrologiques et mesures de pluie et c) incertitudes dans les structures traditionnelles des MRUTP. Ces aspects sont approfondis dans six apports séparés, dont leurs résultats principaux peuvent être synthétisés comme suites : a) Acquisition et validation des données : (i) quatre stratégies d’échantillonnage pendant des événements pluvieux sont simulées et évaluées à partir de mesures en ligne de MES et débit. Les intervalles d’échantillonnage recommandés sont de 5 min, avec des erreurs moyennes entre 7 % et 20 % et des incertitudes sur ces erreurs d’environ 5 %, selon l’intervalle d’échantillonnage; (ii) la probabilité de sous-estimation de la concentration moyenne dans la section transversale du réseau est estimée à partir de deux méthodologies. Une méthodologie montre des sous-estimations de MES plus réelles (vers 39 %) par apport à l'autre (vers 269 %). b) Modèles hydrologiques et mesures de pluie : (iii) une stratégie d’estimation de paramètres d’un modèle conceptuel pluie-débit est proposée, en analysant la variabilité des paramètres optimaux obtenus à partir d’un calage Bayésien évènement-par-évènement; (iv) une méthode pour calculer les précipitations moyennes sur un bassin versant est proposée, sur la base du même modèle hydrologique et les données de débit. c) MRUTP (pollutographes) : (v) la performance de modélisation à partir du modèle traditionnel courbe d’étalonnage (RC) a été supérieur aux différents modèles linéaires de fonctions de transfert (TF), surtout en termes de parcimonie et précision des simulations. Aucune relation entre les potentielles erreurs de mesure de la pluie et les conditions hydrologiques définies en (iii) et (iv) avec les performances de RC et TFs n’a pu être établie. Des tests statistiques renforcent que l’occurrence des évènements non-représentables par RC ou TF au cours de temps suit une distribution aléatoire (indépendante de la période sèche précédente); (vi) une méthode de reconstruction Bayésienne de variables d’état virtuelles indique que des processus potentiellement manquants dans une description RC sont ininterprétables en termes d’un unique état virtuel de masse disponible dans le bassin versant qui diminue avec le temps, comme nombre de modèles traditionnels l’ont supposé. / Total Suspended Solids (TSS) stormwater models in urban drainage systems are often required for scientific, legal, environmental and operational reasons. However, these TSS stormwater traditional model structures have been widely questioned, especially when reproducing data from online measurements at the outlet of large urban catchments. In this thesis, three potential limitations of traditional TSS stormwater models are analyzed in a 185 ha urban catchment (Chassieu, Lyon, France), by means 365 rainfall events monitored online: a) uncertainties in TSS data due to field conditions; b) uncertainties in hydrological models and rainfall measurements and c) uncertainties in the stormwater quality model structures. These aspects are investigated in six separate contributions, whose principal results can be summarized as follows: a) TSS data acquisition and validation: (i) four sampling strategies during rainfall events are simulated and evaluated by online TSS and flow rate measurements. Recommended sampling time intervals are of 5 min, with average sampling errors between 7 % and 20 % and uncertainties in sampling errors of about 5 %, depending on the sampling interval; (ii) the probability of underestimating the cross section mean TSS concentration is estimated by two methodologies. One method shows more realistic TSS underestimations (about 39 %) than the other (about 269 %). b) Hydrological models and rainfall measurements: (iii) a parameter estimation strategy is proposed for conceptual rainfall-runoff model by analyzing the variability of the optimal parameters obtained by single-event Bayesian calibrations, based on clusters and graphs representations. The new strategy shows more performant results in terms of accuracy and precision in validation; (iv) a methodology aimed to calculate “mean” areal rainfall estimation is proposed, based on the same hydrological model and flow rate data. Rainfall estimations by multiplying factors over constant-length time window and rainfall zero records filled with a reverse model show the most satisfactory results compared to further rainfall estimation models. c) Stormwater TSS pollutograph modelling: (v) the modelling performance of the traditional Rating Curve (RC) model is superior to different linear Transfer Function models (TFs), especially in terms of parsimony and precision of the simulations. No relation between the rainfall corrections or hydrological conditions defined in (iii) and (iv) with performances of RC and TFs could be established. Statistical tests strengthen that the occurrence of events not representable by the RC model in time is independent of antecedent dry weather conditions; (vi) a Bayesian reconstruction method of virtual state variables indicate that potential missing processes in the RC description are hardly interpretable as a unique state of virtual available mass over the catchment decreasing over time, as assumed by a great number of traditional models.
62

Modeling, Identification and Control of a Guided Projectile in a Wind Tunnel / Modélisation, identification et commande d'un projectile guidé en soufflerie

Strub, Guillaume 20 July 2016 (has links)
Cette thèse présente une méthodologie de conception et d’évaluation de lois de commande pour projectiles guidés, au moyen d’un prototype placé dans une soufflerie via un support autorisant plusieurs degrés de liberté en rotation. Ce dispositif procure un environnement permettant à la fois de caractériser expérimentalement le comportement de la munition et d’évaluer les performances des lois de commande dans des conditions réalistes, et est mis en œuvre pour l’étude d’autopilotes de tangage et de lacet, à vitesse fixe et à vitesse variable, pour un prototype de projectile empenné piloté par canards. La modélisation d’un tel système aboutit à un modèle non-linéaire dépendant de nombreuses conditions de vol telles que la vitesse et des angles d’incidence. Les méthodes de séquencement de gain basées sur des linéarisations d’un modèle non-linéaire sont couramment employées dans l’industrie pour la commande de ce type de systèmes. A cette fin, le système est représenté au moyen d’une famille de modèles linéaires dont les paramètres sont directement estimés à partir de données recueillies sur le dispositif expérimental. L’observation du comportement à différents points de vol permet de considérer la vitesse de l’air comme unique variable de séquencement. La synthèse des différents contrôleurs est réalisée au moyen d’une méthode H∞ multi-objectifs à ordre et structure fixes, afin de garantir la stabilité et la robustesse du système vis-à-vis d’incertitudes liées à la variation du point de fonctionnement. Ces lois de commande sont alors validées au moyen d’analyses de robustesse, puis par leur implémentation sur le dispositif expérimental. Les résultats obtenus lors d’essais en soufflerie correspondent aux simulations numériques et sont conformes aux spécifications attendues. / This work presents a novel methodology for flight control law design and evaluation, using a functional prototype installed in a wind tunnel by the means of a support structure allowing multiple rotational degrees of freedom. This setup provides an environment allowing experimental characterization of the munition’s behavior, as well as for flight control law evaluation in realistic conditions. The design and validation of pitch and yaw autopilots for a fin-stabilized, canard-guided projectile is investigated, at fixed and variable airspeeds. Modeling such a system leads to a nonlinear model depending on numerous flight conditions such as the airspeed and incidence angles. Linearization-based gain scheduling techniques are widely employed in the industry for controlling this class of systems. To this end, the system is represented with a family of linear models whose parameters are directly estimated from experimentally collected data. Observation of the projectile’s behavior for different operating points indicates the airspeed can be considered as the only scheduling variable. Controller synthesis is performed using a multi-objective, fixed-order, fixed-structure H∞ technique in order to guarantee the stability and robustness of the closed-loop against operating point uncertainty. The obtained control laws are validated with robustness analysis techniques and are then implemented on the experimental setup, where wind-tunnel tests results correlate with numerical simulations and conform to the design specifications.
63

Avaliação de testes diagnósticos na ausência de padrão ouro considerando relaxamento da suposição de independência condicional, covariáveis e estratificação da população: uma abordagem Bayesiana

Pereira, Gilberto de Araujo 16 December 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4040.pdf: 1510214 bytes, checksum: 7dfe4542c20ffa8a47309738bc22a922 (MD5) Previous issue date: 2011-12-16 / Financiadora de Estudos e Projetos / The application of a gold standard reference test in all or part of the sample under investigation is often not feasible for the majority of diseases affecting humans, either by a lack of consensus on which testing may be considered a gold standard, the high level of invasion of the gold standard technique, the high cost of financially large-scale application, or by ethical questions, so to know the performance of existing tests is essential for the process of diagnosis of these diseases. In statistical modeling aimed to obtain robust estimates of the prevalence of the disease (x ) and the performance parameters of diagnostic tests (sensitivity (Se) and specificity (Sp)), various strategies have been considered such as the stratification of the population, the relaxation of the assumption of conditional independence, the inclusion of covariates, the verification type (partial or total) and the techniques to replace the gold standard. In this thesis we propose a new structure of stratification of the population considering both the prevalence rates and the parameters of test performance among the different strata (EHW). A Bayesian latent class modeling to estimate these parameters was developed for the general case of K diagnostic tests under investigation, relaxation of the assumption of conditional independence according to the formulations of the fixed effect (FECD) and random (RECD) with dependent order (h _ k) and M covariates. The application of models to two data sets about the performance evaluation of diagnostic tests used in screening for Chagas disease in blood donors showed results consistent with the sensitivity studies. Overall, we observed for the structure of stratification proposal (EHW) superior performance and estimates closer to the nominal values when compared to the structure of stratification when only the prevalence rates are different between the strata (HW), even when we consider data set with rates of Se, Sp and x close among the strata. Generally, the structure of latent class, when we have low or high prevalence of the disease, estimates of sensitivity and specificity rates have higher standard errors. However, in these cases, when there is high concordance of positive or negative results of the tests, the error pattern of these estimates are reduced. Regardless of the structure of stratification (EHW, HW), sample size and the different scenarios used to model the prior information, the model of conditional dependency from the FECD and RECD had, from the information criteria (AIC, BIC and DIC), superior performance to the structure of conditional independence (CI) and to FECD with improved performance and estimates closer to the nominal values. Besides the connection logit, derived from the logistic distribution with symmetrical shape, find in the link GEV, derived from the generalized extreme value distribution which accommodates symmetric and asymmetric shapes, a interesting alternative to construct the conditional dependence structure from the RECD. As an alternative to the problem of identifiability, present in this type of model, the criteria adopted to elicit the informative priors by combining descriptive analysis of data, adjustment models from simpler structures, were able to produce estimates with low standard error and very close to the nominal values. / Na área da saúde a aplicação de teste de referência padrão ouro na totalidade ou parte da amostra sob investigação é, muitas vezes, impraticável devido à inexistência de consenso sobre o teste a ser considerado padrão ouro, ao elevado nível de invasão da técnica, ao alto custo da aplicação em grande escala ou por questões éticas. Contudo, conhecer o desempenho dos testes é fundamental no processo de diagnóstico. Na modelagem estatística voltada à estimação da taxa de prevalência da doença (x ) e dos parâmetros de desempenho de testes diagnósticos (sensibilidade (S) e especificidade (E)), a literatura tem explorado: estratificação da população, relaxamento da suposição de independência condicional, inclusão de covariáveis, tipo de verificação pelo teste padrão ouro e técnicas para substituir o teste padrão ouro inexistente ou inviável de ser aplicado em toda a amostra. Neste trabalho, propomos uma nova estrutura de estratificação da população considerando taxas de prevalências e parâmetros de desempenho diferentes entre os estratos (HWE). Apresentamos uma modelagem bayesiana de classe latente para o caso geral de K testes diagnósticos sob investigação, relaxamento da suposição de independência condicional segundo as formulações de efeito fixo (DCEF) e efeito aleatório (DCEA) com dependência de ordem (h _ K) e inclusão de M covariáveis. A aplicação dos modelos a dois conjuntos de dados sobre avaliação do desempenho de testes diagnósticos utilizados na triagem da doença de Chagas em doadores de sangue apresentou resultados coerentes com os estudos de sensibilidade. Observamos, para a estrutura de estratificação proposta, HWE, desempenho superior e estimativas muito próximas dos valores nominais quando comparados à estrutura de estratificação na qual somente as taxas de prevalências são diferentes entre os estratos (HW), mesmo quando consideramos dados com taxas de S, E e x muito próximas entre os estratos. Geralmente, na estrutura de classe latente, quando temos baixa ou alta prevalência da doença, as estimativas das sensibilidades e especificidades apresentam, respectivamente, erro padrão mais elevado. No entanto, quando há alta concordância de resultados positivos ou negativos, tal erro diminui. Independentemente da estrutura de estratificação (HWE, HW), do tamanho amostral e dos diferentes cenários utilizados para modelar o conhecimento a priori, os modelos de DCEF e de DCEA apresentaram, a partir dos critérios de informação (AIC, BIC e DIC), desempenhos superiores à estrutura de independência condicional (IC), sendo o de DCEF com melhor desempenho e estimativas mais próximas dos valores nominais. Além da ligação logito, derivada da distribuição logística com forma simétrica, encontramos na ligação VEG , derivada da distribuição de valor extremo generalizada a qual acomoda formas simétricas e assimétricas, interessante alternativa para construir a estrutura de DCEA. Como alternativa ao problema de identificabilidade, neste tipo de modelo, os critérios para elicitar as prioris informativas, combinando análise descritiva dos dados com ajuste de modelos de estruturas mais simples, contribuíram para produzir estimativas com baixo erro padrão e muito próximas dos valores nominais.
64

Vers l’identification d’une loi de plasticité monocristalline par analyse topographique d’empreintes de nanoindentation Berkovich / To the identification of a single crystal plasticity law by topographic analysis of Berkovich nanoindentation imprints

Renner, Emile 20 June 2016 (has links)
Une méthode d’analyse des topographies résiduelles, obtenues par essais de nanoindentation Berkovich sur trois échantillons de nickel polycristallins cubiques à faces entrées (CFC), a été développée dans cette thèse. L’objectif de la méthode est d’évaluer la richesse de l’information contenue dans les empreintes pour l’identification de tout ou partie des paramètres d’une loi de plasticité monocristalline. La création d’une base de données de topographies résiduelles, mesurées par microscopie à force atomique (AFM), constitue la partie expérimentale du travail. Les distributions et dimensions de bourrelets montrent une grande sensibilité à l’orientation relative indenteur/grain et au taux d’écrouissage. Les topographies obtenues s’avèrent être de véritables « empreintes digitales » du mécanisme de plasticité à l’échelle du grain. L’élaboration sous le code ZéBuLon d’un modèle éléments finis (EF) 3D de l’essai de nanoindentation Berkovich, intégrant la loi de Méric-Cailletaud, permet de retrouver les observations expérimentales. Une étude numérique confirme la sensibilité de la topographie à l’orientation relative indenteur/grain et aux paramètres plastiques, notamment aux coefficients de la matrice d’interaction des dislocations présentes sur les systèmes de glissement. Afin d’évaluer la richesse du contenu informatif des empreintes, un indice d’identifiabilité est proposé. Son calcul est basé sur la multi-colinéarité des vecteurs de sensibilité des topographies résiduelles aux paramètres de la loi. Il permet de quantifier, en fonction des données topographiques prises en compte, le caractère mal posé du problème d’identification paramétrique. Les résultats obtenus montrent que l’identification de quatre à cinq paramètres de la loi de Méric-Cailletaud est envisageable en exploitant seulement deux empreintes. Ces travaux ouvrent la voie à l’identification du comportement à l’échelle du cristal, guidée par l’identifiabilité paramétrique. / In this thesis, a method is developed to analyse the residual topographies obtained by Berkovich nanoindentation tests on three face-centered cubic (FCC) polycrystalline nickel samples. The purpose is to measure the information richness of imprints for identifying all or part of parameters of a single crystal plasticity law. The experimental part consists in creating a residual topography database by atomic force microscopy (AFM) measurements on the samples. Pile-up distributions and sizes are largely sensitive to the indenter/grain relative orientation and the hardening rate. The topographies are true “fingerprints” of the plasticity mechanism at the grain scale. A 3D finite element (FE) modelling of nanoindentation test is developed using the code ZeBuLon and making use of the Méric-Cailletaud law. Numerical results show a good agreement with experimental observations and are largely sensitive to the indenter/grain relative orientation and the plastic parameters, including the interaction matrix coefficient specifying the interaction between dislocations on different slip systems. To measure the imprint information content, an identifiability index is proposed. Its calculation is based on the multicollinearity among the sensitivity vectors of topographies to the law parameters. According to the considered topographies, it measures if the numerical model updating problem is ill-posed. The results show that four to five parameters of the Méric-Cailletaud law can be identified by considering two topographies. This work paves the way for identifying the material behaviour at the grain scale using parametric identifiability
65

[en] THE LINEAR LOCAL-GLOBAL NEURAL NETWORK MODEL / [pt] O MODELO DE REDES NEURAIS GLOBAIS-LOCAIS

MAYTE SUAREZ FARINAS 02 July 2003 (has links)
[pt] Nesta tese apresenta-se o Modelo de Redes Neurais Globais- Locais (RNGL) dentro do contexto de modelos de séries temporais. Esta formulação abrange alguns modelos não- lineares já existentes e admite também o enfoque de Mistura de Especialistas. Dedica-se especial atenção ao caso de especialistas lineares, e são discutidos extensivamente aspectos teóricos do modelo: condições de estacionariedade, identificabilidade do modelo, existência, consistência e normalidade assintótica dos estimadores dos parâmetros. Considera-se também uma estratégia de construção do modelo e são discutidos os procedimentos numéricos de estimação, apresentando uma solução para o cálculo de valores iniciais. Finalmente, ilustra-se a metodologia apresentada em duas séries temporais reais, amplamente utilizada na literatura de modelos não lineares. / [en] In this thesis, the Local Global Neural Networks model is proposed within the context of time series models. This formulation encompasses some already existing nonlinear models and also admits the Mixture of Experts approach. We place emphasis on the linear expert case and extensively discuss the theoretical aspects of the model: stationary conditions, existence, consistency and asymptotic normality of the parameter estimates, and model identifiability. A model building strategy is also considered and the whole procedure is illustrated with two real time-series.
66

Identification de lois de comportement de tôles en faibles épaisseurs par développement et utilisation du procédé de microformage incrémental / Idefntification of behavior laws of thin sheet metals by developing and using micro-incremental forming process

Ben Hmida, Ramzi 18 December 2014 (has links)
La miniaturisation des composants est aujourd’hui un challenge mondial. La fabrication de ces composants est rendue difficile par un certain nombre de phénomènes liés aux effets d’échelle. Il est ainsi nécessaire de répondre à ces contraintes de réduction d’échelle en termes de conception, de réalisation et de fonctionnement de ces systèmes. Cette étude aborde la problématique de la miniaturisation des procédés et plus particulièrement du procédé de micro-formage incrémental « mono-point » (micro-SPIF) à travers des études expérimentales et numériques. Le micro-formage incrémental de tôles est présenté comme une approche intéres sante de fabrication de structures minces. La géométrie désirée est assurée par la trajectoire d’un outil imposant une déformation locale sur la tôle serrée en son contour. Dans un premier temps, une approcheexpérimentale consistant à analyser le comportement mécanique des éprouvettes en alliage de cuivre avec différentes tailles de grains par des essais de traction a été proposée. L’interaction entre la géométrie et la microstructure est évaluée à l’aide du ratio de l'épaisseur par la taille moyenne de grains Φ=t/d. Un pilote de formage incrémental « mono-point » instrumenté a été également développé. Une campagne d'essais expérimentaux de micro-SPIF a été ainsi réalisée sur des flans par différentes tailles de grains afin d'étudier les effets de la microstructure sur la géométrie, l’état de surface, la distribution des épaisseurs et sur l’évolution des efforts. Dans un second temps, un modèle paramétrique de type éléments finis simulant le micro-SPIF a été développé en langage MATLAB®. Le code de calculs LS-DYNA® a été utilisé pour simuler le procédé en adaptant une loi de comportement élastoplastique. Ensuite, les résultats obtenus en termes de géométrie,d’évolution de l’épaisseur et d’efforts de formage sont confrontés aux relevés expérimentaux afin de valider la procédure numérique. Dans un troisième temps, une loi élastoplastique endommageable décrivant les principaux phénomènes physiques intervenant durant le formage des métaux en grandes déformations a été présentée. Une procédure d'identification de cette loi basée sur une analyse inverse de l’effort au cours du procédé de micro-SPIF a été proposée et des tests de validation du modèle ont été discutés. Enfin, une analyse de l'identifiabilité locale basée sur un indice de multicolinéarité des fonctions de sensibilité est effectuée pour valider la procédure d’identification paramétrique et quantifier l’intérêt du procédé pour la caractérisation quantitative des tôlesminces en très grandes déformations / The miniaturization of components is now a world challenge. The manufacture of these componentsis difficult because of several phenomena related to the so-called size effect. It is thus necessary to fulfill theserequirements of scaling down in terms of design, implementation and operations. This study deals with theproblems of miniaturization processes, especially the “micro-Single Point" Incremental Forming process (micro-SPIF) through experimental and numerical studies. Micro-single point incremental forming process is presentedas an interesting approach for thin structures manufacturing. The desired geometry is provided by the tool pathrequiring a local deformation in a sheet clamped along its contour. Firstly, an experimental approach consistingin analyzing the mechanical behaviour of copper alloy specimens with various grain sizes by tensile tests hasbeen proposed. The interaction between the geometry and the microstructure is evaluated using the ratio of thethickness by the average grain size Φ=t/d. An instrumented micro-SPIF device was also developed. A set ofsingle point incremental sheet forming experimental tests were conducted on blanks with several grain sizesusing two forming strategies in order to study the effect of microstructure on the geometry, the surface topology,the thickness distribution and the forming forces evolutions. Secondly, a finite element parametric model capableof simulating the micro-SPIF process was developed in MATLAB® language. The commercial LS-DYNA® codewas used to simulate this process using an elastic-plastic constitutive law. Then, the results obtained in terms ofgeometry, thickness evolution and forming forces are compared with the experimental results in order to validatethe numerical procedure. Thirdly, an elastic-plastic damage model describing the main physical phenomenainvolved during metal forming by large deformation was presented. An identification procedure of thisbehaviour law based on the inverse analysis of the axial forming force during micro-SPIF process was proposedand several validation tests of the model were discussed. Finally, local identifiability analysis based on an indexof multicollinearity of the sensitivity functions was performed in order to validate the parameters identificationprocedure and quantify the advantage of the process for quantitative mechanical behaviour characterization ofthin metal sheets at large strains
67

Makroekonometrický model měnové politiky / Macroeconometric Model of Monetary Policy

Čížek, Ondřej January 2010 (has links)
First of all, general principals of contemporary macroeconometric models are described in this dissertation together with a brief sketch of alternative approaches. Consequently, the macroeconomic model of a monetary policy is formulated in order to describe fundamental relationships between real and nominal economy. The model originated from a linear one by making some of the parameters endogenous. Despite this nonlinearity, I expressed my model in a state space form with time-varying coefficients, which can be solved by a standard Kalman filter. Using outcomes of this algorithm, likelihood function was then calculated and maximized in order to obtain estimates of the parameters. The theory of identifiability of a parametric structure is also described. Finally, the presented theory is applied on the formulated model of the euro area. In this model, the European Central Bank was assumed to behave according to the Taylor rule. The econometric estimation, however, showed that this common assumption in macroeconomic modeling is not adequate in this case. The results from econometric estimation and analysis of identifiability also indicated that the interest rate policy of the European Central Bank has only a very limited effect on real economic activity of the European Union. Both results are influential, as monetary policy in the last two decades has been modeled as interest rate policy with the Taylor rule in most macroeconometric models.
68

Conception d’environnement instrumenté pour la veille à la personne / Design of instrumented environment for human monitoring

Massein, Aurélien 22 November 2018 (has links)
L'instrumentation permet à notre environnement, maison ou bâtiment, de devenir intelligent en s'adaptant à nos modes de vie et en nous assistant au quotidien. Un environnement intelligent est sensible et réactif à nos activités, afin d'améliorer notre qualité de vie. La fiabilité d'identification des activités est ainsi essentielle pour cette intelligence ambiante : elle est directement dépendante du positionnement des capteurs au sein de l'environnement. Cette question essentielle du placement des capteurs est très peu considérée par les systèmes ambiants commercialisés ou même dans la littérature. Pourtant, elle est la source principale de leurs dysfonctionnements où une mauvaise reconnaissance des activités entraîne une mauvaise assistance fournie. Le placement de capteurs consiste à choisir et à positionner des capteurs pertinents pour une identification fiable des activités. Dans cette thèse, nous développons et détaillons une méthodologie de placement de capteurs axée sur l'identifiabilité des activités d'intérêt. Nous la qualifions en nous intéressant à deux évaluations différentes : la couverture des intérêts et l'incertitude de mesures. Dans un premier temps, nous proposons un modèle de l'activité où nous décomposons l'activité en actions caractérisées afin d'être indépendant de toute technologie ambiante (axée connaissances ou données). Nous représentons actions et capteurs par un modèle ensembliste unifiant, permettant de fusionner des informations homogènes de capteurs hétérogènes. Nous en évaluons l'identifiabilité des actions d'intérêt au regard des capteurs placés, par des notions de précision (performance d'identification) et de sensibilité (couverture des actions). Notre algorithme de placement des capteurs utilise la Pareto-optimalité pour proposer une large palette de placements-solutions pertinents et variés, pour ces multiples identifiabilités à maximiser. Nous illustrons notre méthodologie et notre évaluation en utilisant des capteurs de présence, et en choisissant optimalement la caractéristique à couvrir pour chaque action. Dans un deuxième temps, nous nous intéressons à la planification optimale des expériences où l'analyse de la matrice d'information permet de quantifier l'influence des sources d'incertitudes sur l'identification d'une caractéristique d'action. Nous représentons les capteurs continus et l'action caractérisée par un modèle analytique, et montrons que certaines incertitudes doivent être prises en compte et intégrées dans une nouvelle matrice d'information. Nous y appliquons les indices d'observabilité directement pour évaluer l'identifiabilité d'une action caractérisée (incertitude d'identification). Nous illustrons cette évaluation alternative en utilisant des capteurs d'angle, et nous la comparons à la matrice d'information classique. Nous discutons des deux évaluations abordées et de leur complémentarité pour la conception d’environnement instrumenté pour la veille à la personne. / Instrumentation enables our environment, house or building, to get smart through self-adjustment to our lifestyles and through assistance of our daily-life. A smart environment is sensitive and responsive to our activities, in order to improve our quality of life. Reliability of activities' identification is absolutely necessary to such ambient intelligence: it depends directly on sensors' positioning within the environment. This fundamental issue of sensor placement is hardly considered by marketed ambient systems or even into the literature. Yet, it is the main source of ambient systems' malfunctions and failures, because a bad activity recognition leads to a bad delivered assistance. Sensor placement is about choosing and positioning relevant sensors for a reliable identification of activities. In this thesis, we develop and detail a sensor placement methodology driven by identifiability of activities of interest. We quantify it by looking at two different evaluations: coverage of interests and uncertainty of measures. First, we present an activity model that decomposes each activity into characterised actions to be technology-free (either knowledge or data driven one). We depict actions and sensors by a set theoretic model, enabling to fuse homogeneous informations of heterogeneous sensors. We then evaluate each action of interest's identifiability regarding placed sensors, through notions of precision (identification's performance) and sensitivity (action's coverage). Our sensor placement algorithm use Pareto-optimality to offer a wide range of relevant solution-placements, for these multiple identifiabilities to maximise. We showcase our methodology and our evaluation through solving a problem featuring motion and binary sensors, by optimally choosing for each action the characteristic to cover. Finally, we look into optimal design of experiments by analysing the information matrix to quantify how sources of uncertainties influence the identification of an action's characteristic. We depict continuous sensors and the characterised action by an analytical model, and we show that some uncertainties should be considered and included in a new information matrix. We then apply directly observability indexes to evaluate identifiability of a characterised action (uncertainty of identification), and compare our new information matrix to the classical one. We showcase our alternate evaluation through solving a sensor placement problem featuring angular sensors. We discuss both covered evaluations and their complementarity towards the design of instrumented environment for human monitoring.
69

All models are wrong, but some are useful: Assessing model limitations for use in decision making and future model development

Apostel, Anna Maria January 2021 (has links)
No description available.
70

Inférence statistique dans le modèle de régression logistique avec fraction immune / Statistical inference in logistic regression model with immune fraction

Diop, Aba 15 November 2012 (has links)
Les modèles linéaires généralisés sont une généralisation des modèles de régression linéaire, et sont très utilisés dans le domaine du vivant. Le modèle de régression logistique, l'un des modèles de cette classe, très souvent utilisé dans les études biomédicales demeure le modèle de régression le plus approprié quand il s'agit de modéliser une variable discrète de nature binaire. Dans cette thèse, nous nous intéressons au problème de l'inférence statistique dans le modèle de régression logistique, en présence d'individus immunes dans la population d'étude.Dans un premier temps, nous considérons le problème de l'estimation dans le modèle de régression logistique en présence d'individus immunes, qui entre dans le cadre des modèles de régression à excès de zéros (ou zéro-inflatés). Un individu est dit immune s'il n'est pas exposé à l'événement d'intérêt. Le statut d'immunité est inconnu sauf si l'événement d'intérêt a été observé. Nous développons une méthode d'estimation par maximum de vraisemblance en proposant une modélisation conjointe de l'immunité et des risques d'infection. Nous établissons d'abord l'identifiabilité du modèle proposé. Puis, nous montrons l'existence de l'estimateur du maximum de vraisemblance des paramètres de ce modèle. Nous montrons ensuite,la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Enfin, nous étudions, au moyen de simulations, leur comportement sur des échantillons de taille finie.Dans un deuxième temps, nous nous intéressons à la construction de bandes de confiance simultanées pour la probabilité d'infection, dans le modèle de régression logistique avec fraction immune. Nous proposons trois méthodes de constructions de bandes de confiance pour la fonction de régression. La première méthode (méthodede Scheffé) utilise la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance, et une approximation par une loi du khi deux pour approcher le quantile nécessaire à la construction des bandes. La deuxième méthode utilise également la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance et est basée sur une égalité classique de (Landau & Sheep 1970). La troisième méthode (méthode bootstrap) repose sur des simulations, pour estimer le quantile approprié de la loi du supremum d'un processus gaussien. Enfin, nous évaluons, au moyen de simulations, leurs propriétés sur des échantillons de taille finie.Enfin, nous appliquons les résultats de modélisation à des données réelles surla dengue. Il s'agit d'une maladie vectorielle tropicale à transmission strictement inter-humaine. Les résultats montrent que les probabilités d'infection estimées à partir de notre approche de modélisation sont plus élevées que celles obtenues à partir d'un modèle de régression logistique standard qui ne tient pas compte d'une possible immunité. En particulier, les estimations fournies par notre approche suggèrent que le sous-poids constitue un facteur de risque majeur de l'infection par la dengue, indépendamment de l'âge. / Generalized linear models are a generalization of linear regression models, and are widely used in the field of life. The logistic regression model, one of this class of models, widely used in biomedical studies remains the most appropriate regression model when it comes to model discrete variable, binary in nature. In this thesis, we investigate the problem of statistical inference in the logistic regression model, in the presence of immune individuals in the study population.At first, we consider the problem of estimation in the logistic regression model in the presence of immune individuals that enters in the case of zero-inflated regression models. A subject is said to be immune if he cannot experience the outcome of interest. The immune status is unknown unless the event of interest has been observed. We develop a maximum like lihood estimation procedure for this problem, based on the joint modeling of the binary response of interest and the cure status. We investigate the identifiability of the resulting model. Then, we establish the existence, consistency and asymptotic normality of the proposed estimator, and we conduct a simulation study to investigate its finite-sample behavior. In a second time, we focus on the construction of simultaneous confidence bands for the probability of infection in the logistic regression model with immune fraction.We propose three methods of construction of confidence bands for the regression function. The first method (Scheffe's method) uses the asymptotic normality of the maximum like lihood estimator, and an approximation by the chi-squared distribution to approximate the necessary quantile for the construction of bands. The second method uses also the asymptotic normality of the maximum like lihood estimator and is based on a classical equality by (Landau & Sheep 1970). The third method (bootstrap method) is based on simulations, to estimate the appropriate quantile of the law of a supremum of a Gaussian process. Finally, we conduct a simulation study to investigate its finite-sample properties.Finally, we consider a study of dengue fever, which is a tropical mosquito-borneviral human disease, strictly inter-human. The results show that, the estimated probabilities of infection obtained from our approach are larger than the ones derived from a standard analysis that does not take account of the possible immunity. Inparticular, the estimates provided by our approach suggest that underweight constitutes a major risk factor for dengue infection, irrespectively of age.

Page generated in 1.1492 seconds