81 |
Lois bayésiennes a priori dans un plan binomial séquentielBunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.
|
82 |
Fiabilité des outils de prévision du comportement des systèmes thermiques complexesMerheb, Rania 04 December 2013 (has links) (PDF)
La conception des bâtiments à faible consommation d'énergie est devenue un enjeu très important dans le but de réduire au maximum la consommation d'énergie et les émissions de gaz à effet de serre associées. Pour y arriver, il est indispensable de connaître les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique des bâtiments d'un part, et de les caractériser et les évaluer d'autre part.Pour répondre aux exigences courantes en termes de fiabilité des prévisions du comportement thermique des bâtiments, nous avons essayé dans le cadre de cette thèse de quantifier les incertitudes liés à des paramètres influents, de proposer une technique de diagnostic de l'enveloppe, propager les incertitudes via une méthode ensembliste sur un modèle simplifié et puis proposer une démarche permettant d'identifier les paramètres de modélisation les plus influents et d'évaluer leur effet sur les performances énergétiques avec le moindre coût en termes de simulations.
|
83 |
Implication des interactions médicamenteuses, des transporteurs membranaires, du sexe et du diabète dans les mécanismes de survenue du syndrome du QT long médicamenteuxHreiche, Raymond January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
84 |
Adiposité et fertilité chez la truie : aspects génomiquesHoude, Andrée-Anne January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
85 |
Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation / Set-membership state observers design based on explicit characterizations of theestimation-error boundsLoukkas, Nassim 06 June 2018 (has links)
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation. / In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error.
|
86 |
Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque / Modelling of the Earth-Space propagation channel in Ka and Q/V bands : time series synthesis, statistical variability and risk estimationBoulanger, Xavier 15 March 2013 (has links)
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms). / Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated.
|
87 |
Contribution à la planification d'expériences, à l'estimation et au diagnostic actif de systèmes dynamiques non linéaires : application au domaine aéronautique / Contributions to the design of experiment, the estimation and active diagnosis for nonlinear dynamical systems with aeronautical applicationLi, Qiaochu 10 November 2015 (has links)
Dans ce travail de thèse, nous nous focalisons sur le problème de l'intégration d'incertitude à erreurs bornées pour les systèmes dynamiques, dont les entrées et les états initiaux doivent être optimaux afin de réaliser certaines fonctionnalités.Le document comporte 5 chapitres: le premier est une introduction présentant le panorama du travail. Le deuxième chapitre présente les outils de base de l'analyse par intervalle. Le chapitre 3 est dédié à l'estimation d'états et de paramètres. Nous décrivons d'abord une procédure pour résoudre un système d'équations différentielles ordinaires avec l'aide de cet outil. Ainsi, une estimation des états à partir des conditions initiales peut être faite. Les systèmes différentiels considérés dépendent de paramètres qui doivent être estimés. Ce problème inverse pourra être résolu via l'inversion ensembliste. L'approche par intervalle est une procédure déterministe naturelle sans incertitude, tous les résultats obtenus sont garantis. Néanmoins, cette approche n'est pas toujours efficace, ceci est dû au fait que certaines opérations ensemblistes conduisent à des temps de calcul important. Nous présentons quelques techniques, par cela, nous nous plaçons dans un contexte à erreurs bornées permettant d'accélérer cette procédure. Celles-ci utilisent des contracteurs ciblés qui permettent ainsi une réduction de ce temps. Ces algorithmes ont été testés et ont montré leur efficacité sur plusieurs applications: des modèles pharmacocinétiques et un modèle du vol longitudinal d'avion en atmosphère au repos.Le chapitre 4 présente la recherche d'entrées optimales dans le cadre analyse par intervalle, ce qui est une approche originale. Nous avons construit plusieurs critères nouveaux permettant cette recherche. Certains sont intuitifs, d'autres ont nécessité un développement théorique. Ces critères ont été utilisés pour la recherche d'états initiaux optimaux. Des comparaisons ont été faites sur plusieurs applications et l'efficacité de certains critères a été mise en évidence.Dans le chapitre 5, nous appliquons les approches présentées précédemment au diagnostic via l'estimation de paramètres. Nous avons développé un processus complet pour le diagnostic et aussi formulé un processus pour le diagnostic actif avec une application en aéronautique. Le dernier chapitre résume les travaux réalisés dans cette thèse et essaye de donner des perspectives à la recherche.Les algorithmes proposés dans ce travail ont été développés en C++ et utilisent l'environnement du calcul ensembliste. / In this work, we will study the uncertainty integration problem in a bounded error context for the dynamic systems, whose input and the initial state have to be optimized so that some other operation could be more easily and better obtained. This work is consisted of 6 chapters : the chapter 1 is an introduction to the general subject which we will discuss about. The chapter 2 represents the basic tools of interval analysis.The chapter 3 is dedicated to state estimation and parameter estimation. We explain at the first, how to solve the ordinary differential equation using interval analysis, which will be the basic tool for the state estimation problem given the initial condition of studied systems. On the other ride, we will look into the parameter estimation problem using interval analysis too. Based on a simple hypothesis over the uncertain variable, we calculate the system's parameter in a bounded error form, considering the operation of intervals as the operation of sets. Guaranteed results are the advantage of interval analysis, but the big time consumption is still a problem for its popularization in many non linear estimation field. We present our founding techniques to accelerate this time consuming processes, which are called contractor in constraint propagation field. At the end of this chapter, différent examples will be the test proof for our proposed methods.Chapter 4 presents the searching for optimal input in the context of interval analysis, which is an original approach. We have constructed several new criteria allow such searching. Some of them are intuitive, the other need a theoretical proof. These criteria have been used for the search of optimal initial States and le better parameter estimation results. The comparisons are done by using multiple applications and the efficiency is proved by evidence.In chapter 5, we applied the approaches proposed above in diagnosis by state estimation and parameter estimation. We have developed a complete procedure for the diagnosis. The optimal input design has been reconsidered in an active diagnosis context. Both state and parameter estimation are implemented using an aeronautical application in literature.The last chapter given a brief summary over the realized subject, some further research directions are given in the perspective section.All the algorithms are written in C/C++ on a Linux based operation system.
|
88 |
Study of dementia and cognitive decline accounting for selection by death / Prise en compte de la sélection par le décès dans l'étude de la démence et du déclin cognitifRouanet, Anais 14 December 2016 (has links)
Ce travail a pour but de développer des outils statistiques pour l'étude du déclin cognitif général ou précédant le diagnostic de démence, à partir de données de cohorte en tenant compte du risque compétitif de décès et de la censure par intervalle. Le temps de démence est censuré par intervalle dans les études de cohortes car le diagnostic de démence ne peut être établi qu'à l'occasion des visites qui peuvent être espacées de plusieurs années. Ceci induit une sous-estimation du risque de démence à cause du risque compétitif de décès : les sujets déments sont à fort risque de mourir, et peuvent donc décéder avant la visite de diagnostic. Dans la première partie, nous proposons un modèle conjoint à classes latentes pour données longitudinales corrélées à un événement censuré par intervalle, en compétition avec le décès. Appliqué à la cohorte Paquid, ce modèle permet d'identifier des profils de déclin cognitif associés à des risques différents de démence et de décès. En utilisant cette méthodologie, nous comparons ensuite des modèles pronostiques dynamiques pour la démence, traitant la censure par intervalle, basés sur des mesures répétées de marqueurs cognitifs. Dans la seconde partie, nous conduisons une étude comparative afin de clarifier l'interprétation des estimateurs du maximum de vraisemblance des modèles mixtes et conjoints et estimateurs par équations d'estimation généralisées (GEE), couramment utilisés dans le contexte de données longitudinales incomplètes et tronquées par le décès. Les estimateurs de maximum de vraisemblance ciblent le changement individuel chez les individus vivants. Les estimateurs GEE avec matrice de corrélation de travail indépendante, pondérés par l'inverse de la probabilité d'être observé sachant que le sujet est vivant, ciblent la trajectoire moyennée sur la population des survivants à chaque âge. Ces résultats justifient l'utilisation des modèles conjoints dans l'étude de la démence, qui sont des outils prometteurs pour mieux comprendre l'histoire naturelle de la maladie / The purpose of this work is to develop statistical tools to study the general or the prediagnosis cognitive decline, while accounting for the selection by death and interval censoring. In cohort studies, the time-to-dementia-onset is interval-censored as the dementia status is assessed intermittently. This issue can lead to an under-estimation of the risk of dementia, due to the competing risk of death: subjects with dementia are at high risk to die and can thus die prior to the diagnosis visit. First, we propose a joint latent class illness-death model for longitudinal data correlated to an interval-censored time-to-event, competing with the time-to-death. This model is applied on the Paquid cohort to identify profiles of pre-dementia cognitive declines associated with different risks of dementia and death. Using this methodology, we compare dynamic prognostic models for dementia based on repeated measures of cognitive markers, accounting for interval censoring. Secondly, we conduct a simulation study to clarify the interpretation of maximum likelihood estimators of joint and mixed models as well as GEE estimators, frequently used to handle incomplete longitudinal data truncated by death. Maximum likelihood estimators target the individual change among the subjects currently alive. GEE estimators with independent working correlation matrix, weighted by the inverse probability to be observed given that the subject is alive, target the population-averaged change among the dynamic population of survivors. These results justify the use of joint models in dementia studies, which are promising statistical tools to better understand the natural history of dementia
|
89 |
Serialisme in Hubert du Plessis se Drie Stukke vir Fluit en Klavier, opus 25 (Afrikaans)Botes, Johan Andries Prinsloo 15 September 2008 (has links)
In this mini-dissertation the writer analyzed Hubert du Plessis’ Drie Stukke vir Fluit en Klavier, opus 25. He researched why Du Plessis uses three shorter series of different lengths. The relationship between the series in this work was researched, as well as the characteristic applications of the series. It was found that Du Plessis uses shorter series of different lengths as his compositional tool, because they are manageable and can be manipulated for any specific requirement or need. With fewer notes in a series, if chromatic notes are avoided, the music will lean itself to an impression of tonality. It is interesting for the researcher how the feeling of tonality was portrayed through the use of different series and hence the given dissertation was researched. In true atonal music, composers usually disregard third and halftone intervals. Yet, tritones are often used in atonal music. In retrospect, Du Plessis uses more third and halftone intervals than tritones. There is only one tritone in this work (found in the second series), as opposed to the use of third and halftone intervals throughout all three series. The feeling of tonality is further enhanced through fragments of the series that one can place in a specific key. With this in mind, it is evident to get the impression of tonality as a result of fragmentation from the series. Another aspect of tonality that cannot be ignored was the composer’s use of bitonality. The serial techniques that Du Plessis used, was also researched. It was found that Du Plessis did not make use of any new innovations. All these techniques were already used by composers like Schoenberg, Berg, Webern and Dallapiccola. The most important techniques that Du Plessis used, were: <ul> <li>The use of all the forms of the series and their transpositions</li> <li>Overlapping series (that is when the last note of the series, becomes the first note of the next series)</li> <li>Combination of series (superimposition)</li> <li>The dividing of series between the instruments</li> <li>The repetition of notes in a series before all the notes have been used</li> <Li>Sometimes notes are put in a different order, thereby losing the correct order of the series.</li></ul> / Dissertation (MMus)--University of Pretoria, 2008. / Music / unrestricted
|
90 |
Approche conjointe canal et amplificateur d'émission pour l'allocation dynamique de puissance dans les systèmes MIMO-OFDM / Joint channel and power amplifier for dynamic power allocation in MIMO-OFDM systemsSohtsinda, Hermann 05 April 2017 (has links)
Cette thèse porte sur l'optimisation des performances des systèmes de transmission multimédias MIMO-OFDM prenant conjointement en compte les imperfections de l'amplificateur de puissance et les distorsions du canal. Les fluctuations d'amplitude des signaux OFDM, caractérisées par un PAPR élevé, rendent la transmission vulnérable à la non-linéarité de l'amplificateur de puissance. On propose dans un premier temps une méthode permettant d'améliorer les performances de la méthode Tone Reservation en termes de gain de réduction du PAPR et de rapidité de convergence, en associant les échantillons de l'Intervalle de Garde aux Sous-Porteuses Nulles. Les simulations en présence d'un amplificateur de puissance à effets mémoire et d'un canal radio basé sur un modèle de propagation réaliste montrent que la méthode proposée offre de bonnes performances tout en respectant les spécifications fréquentielles, dans le cadre du standard IEEE 802.11a. Dans un second temps, on propose d'étudier l'impact de la non-linéarité dans un système MIMO-OFDM précodé dédié à la transmission d'images JPWL, respectant la norme IEEE 802.11n. On montre que la non-linéarité affecte la robustesse de transmission contre les erreurs de transmission et dégrade considérablement la qualité visuelle des images reçues. Enfin, on propose une stratégie de précodage originale prenant conjointement en compte l'amplificateur de puissance, le canal de transmission et le contenu de l'image à transmettre. Cette stratégie alloue successivement la puissance sur les sous-canaux SISO issus de la décomposition du canal MIMO afin de maximiser la qualité visuelle des images reçues tout en réduisant la puissance totale d'émission. Les résultats de simulation montrent que cette nouvelle stratégie qui considère un amplificateur et un canal réalistes, permet de garantir la robustesse de transmission et d'améliorer la qualité visuelle des images reçues. / This thesis focuses on the optimization of multimedia transmissions in MIMO-OFDM systems by jointly taking into account the power amplifier non-linearity and the wireless channel distortions. The OFDM modulation generates a high peak fluctuation, measured by the PAPR, which is affected by the RF non-linearity such as the power amplifier, reducing the transmission quality. We first propose a new method to improve the Tone Reservation method performances in terms of PAPR reduction gain and convergence speed, by including the samples of the Guard Interval Signal in the optimization algorithm. Simulations results using a power amplifier model with memory effects and a radio channel based on a realistic propagation model show that the new method offers the better performances, while respecting the IEEE 802.11a spectrum mask. Secondly, we propose to study the impact of power amplifier nonlinearity on the transmission of scalable image contents over a precoded Closed-Loop MIMO-OFDM system. The simulations in a realistic context, under the standard IEEE 802.11n standard show that the RF non-linearity affects the robustness against transmission errors and highly degrades the visual quality of the received JPWL images. Finally, we propose a new precoding strategy which jointly takes into account the power amplifier, the radio channel and the image content to be transmitted. This strategy successively allocates power between the SISO sub-channels obtained from the MIMO channel decomposition in order to maximize the visual quality of the received images, while reducing the total output power. Simulations with a realistic power amplifier model, associated with a realistic channel model show that this new strategy ensures a robust transmission and improves the visual quality of the received images.
|
Page generated in 0.0568 seconds