• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 4
  • 1
  • Tagged with
  • 16
  • 16
  • 8
  • 8
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une classe d'intervalles bayésiens pour des espaces de paramètres restreints

Ghashim, Ehssan January 2013 (has links)
Ce mémoire traite d'une méthode bayésienne, analysée par Marchand et Strawderman (2013), pour la construction d'intervalles bayésiens pour des modèles de densités continues avec contrainte sur l'espace des paramètres Θ. Notamment, on obtiendra une classe d'intervalles bayésiens Iπ0,α(.), associés à la troncature d'une loi a priori non informative π0 et générés par une fonction de distribution α(.), avec une probabilité de recouvrement bornée inférieurement par 1-α/1+α. Cette classe inclut la procédure HPD donnée par Marchand et Strawderman (2006) dans le cas où la densité sous-jacente d'un pivot est symétrique. Plusieurs exemples y illustrent la théorie étudiée. Finalement, on présentera de nouveaux résultats pour la probabilité de recouvrement des intervalles bayésiens appartenant à la classe étudiée pour des densités log-concaves. Ces résultats établissent la borne inférieure à 1- 3α/2 et généralisent les résultats de Marchand et al.(2008) tenant sous une hypothèse de symétrie.
2

Construction d'un intervalle de confiance par la méthode bootstrap et test de permutation

Dragieva, Nataliya January 2008 (has links) (PDF)
Ce mémoire traite d'une application pratique de deux méthodes statistiques non paramétriques : le bootstrap et le test de permutation. La méthode du bootstrap a été proposée par Bradley Efron (1979) comme une alternative aux modèles mathématiques traditionnels dans des problèmes d'inférence complexe; celle-ci fournit plusieurs avantages sur les méthodes d'inférence traditionnelles. L'idée du test de permutation est apparue au début du XXème siècle dans les travaux de Neyman, Fisher et Pitman. Le test de permutation, très intensif quant au temps de calcul, est utilisé pour construire une distribution empirique de la statistique de test sous une hypothèse afin de la comparer avec la distribution de la même statistique sous l'hypothèse alternative. Notre objectif est de déterminer l'intervalle de confiance pour un estimateur à maximum de vraisemblance d'une méthode de cartographie génétique existante (MapArg, Larribe et al. 2002) et de tester la qualité de cet estimateur, c'est-à-dire d'établir des seuils de signification pour la fonction de la vraisemblance. Les deux méthodes utilisent le calcul répétitif d'une même statistique de test sur des échantillons obtenus à partir de l'échantillon initial, soit avec le «bootstrap», soit avec des permutations. Dans un test d'hypothèse, les deux méthodes sont complémentaires. Le but de ce mémoire est de proposer différentes variantes pour la construction de l'intervalle de confiance, et de tester des hypothèses distinctes, afin de trouver la meilleure solution adaptée pour la méthode MapArg. Pour faciliter la compréhension des décisions prises, un rappel de l'inférence statistique et des tests d' hypothèse est fait dans les chapitres 4 et 5 où la théorie du bootstrap et celle de test de permutation sont présentées. Comme les qualités d'un estimateur dépendent de la méthode utilisée pour le calculer, les chapitres 1 et 2 présentent la base biologique et la base en mathématiques sur lesquelles la méthode MapArg est construite, tandis qu'on trouvera dans le chapitre 3 une explication de la méthode MapArg. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Mutation, Recombinaison, Coalescence, Cartographie génétique, «Bootstrap», Test de permutation.
3

Une classe d'intervalles bay??siens pour des espaces de param??tres restreints

Ghashim, Ehssan January 2013 (has links)
Ce m??moire traite d'une m??thode bay??sienne, analys??e par Marchand et Strawderman (2013), pour la construction d'intervalles bay??siens pour des mod??les de densit??s continues avec contrainte sur l'espace des param??tres ??. Notamment, on obtiendra une classe d'intervalles bay??siens I??0,??(.), associ??s ?? la troncature d'une loi a priori non informative ??0 et g??n??r??s par une fonction de distribution ??(.), avec une probabilit?? de recouvrement born??e inf??rieurement par 1-??/1+??. Cette classe inclut la proc??dure HPD donn??e par Marchand et Strawderman (2006) dans le cas o?? la densit?? sous-jacente d'un pivot est sym??trique. Plusieurs exemples y illustrent la th??orie ??tudi??e. Finalement, on pr??sentera de nouveaux r??sultats pour la probabilit?? de recouvrement des intervalles bay??siens appartenant ?? la classe ??tudi??e pour des densit??s log-concaves. Ces r??sultats ??tablissent la borne inf??rieure ?? 1- 3??/2 et g??n??ralisent les r??sultats de Marchand et al.(2008) tenant sous une hypoth??se de sym??trie.
4

Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou.

El Koujok, Mohamed 17 September 2010 (has links) (PDF)
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est dicile de construire un outil de pronostic ecace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-ou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-ou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-ou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la conance au processus de pronostic. Enn, les mécanismes d'évaluation de la abilité d'un bien sont adaptés au cas prédictif an de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL).
5

Estimation de la moyenne et de la variance de l'abondance de populations en écologie à partir d'échantillons de petite taille

Vaudor, Lise 25 January 2011 (has links) (PDF)
En écologie comme dans bien d'autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d'inférence sont souvent mal adaptées à ces distributions, à moins de disposer d'échantillons de très grande taille. Il est donc nécessaire de s'interroger sur la validité des méthodes d'inférence, et de quantifier les erreurs d'estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d'abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d'une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l'estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d'estimation de la dispersion. L'erreur d'estimation est d'autant plus importante que le nombre d'individus observés est faible, et l'on peut, pour une population donnée, quantifier le gain en précision résultant de l'exclusion d'échantillons comprenant très peu d'individus. Nous avons ensuite comparé plusieurs méthodes de calcul d'intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d'estimation étaient prévisibles, à travers l'observation de statistiques simples des échantillons comme le nombre total d'individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d'échantillonnage à taille fixe, à une méthode séquentielle, où l'on échantillonne jusqu'à observer un nombre minimum d'individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l'échantillonnage séquentiel améliore l'estimation du paramètre de dispersion mais induit un biais dans l'estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d'estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d'estimations, et aboutit à des recommandations pratiques en termes de méthodes d'échantillonnage et d'estimation.
6

Estimation de la moyenne et de la variance de l’abondance de populations en écologie à partir d’échantillons de petite taille / Estimating mean and variance of populations abundance in ecology with small-sized samples

Vaudor, Lise 25 January 2011 (has links)
En écologie comme dans bien d’autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d’inférence sont souvent mal adaptées à ces distributions, à moins de disposer d’échantillons de très grande taille. Il est donc nécessaire de s’interroger sur la validité des méthodes d’inférence, et de quantifier les erreurs d’estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d’abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d’une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l’estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d’estimation de la dispersion. L’erreur d’estimation est d’autant plus importante que le nombre d’individus observés est faible, et l’on peut, pour une population donnée, quantifier le gain en précision résultant de l’exclusion d’échantillons comprenant très peu d’individus. Nous avons ensuite comparé plusieurs méthodes de calcul d’intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d’estimation étaient prévisibles, à travers l’observation de statistiques simples des échantillons comme le nombre total d’individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d’échantillonnage à taille fixe, à une méthode séquentielle, où l’on échantillonne jusqu’à observer un nombre minimum d’individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l’échantillonnage séquentiel améliore l’estimation du paramètre de dispersion mais induit un biais dans l’estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d’estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d’estimations, et aboutit à des recommandations pratiques en termes de méthodes d’échantillonnage et d’estimation. / In ecology as well as in other scientific areas, count samples often comprise many zeros, and few high abundances. Their distribution is particularly overdispersed, and skewed. The most classical methods of inference are often ill-adapted to these distributions, unless sample size is really large. It is thus necessary to question the validity of inference methods, and to quantify estimation errors for such data. This work has been motivated by a fish abundance dataset, corresponding to punctual sampling by electrofishing. This dataset comprises more than 2000 samples : each sample corresponds to punctual abundances (considered to be independent and identically distributed) for one species and one fishing campaign. These samples are small-sized (generally, 20 _ n _ 50) and comprise many zeros (overall, 80% of counts are zeros). The fits of various classical distribution models were compared on these samples, and the negative binomial distribution was selected. Consequently, we dealt with the estimation of the parameters of this distribution : the parameter of mean m and parameter of dispersion q. First, we studied estimation problems for the dispersion. The estimation error is higher when few individuals are observed, and the gain in precision for a population, resulting from the exclusion of samples comprising very few individuals, can be quantified. We then compared several methods of interval estimation for the mean. Confidence intervals based on negative binomial likelihood are, by far, preferable to more classical ones such as Student’s method. Besides, both studies showed that some estimation problems are predictable through simple statistics such as total number of individuals or number of non-null counts. Accordingly, we compared the fixed sample size sampling method, to a sequential method, where sampling goes on until a minimum number of individuals or positive counts have been observed. We showed that sequential sampling improves the estimation of dispersion but causes the estimation of mean to be biased ; still, it improves the estimation of confidence intervals for the mean. Hence, this work quantifies errors in the estimation of mean and dispersion in the case of overdispersed count data, compares various estimation methods, and leads to practical recommendations as for sampling and estimation methods.
7

Supervision de la sécurité pour des réseaux ad hoc mobiles : un système léger, robuste, et fiable de détection d'intrusion / Security supervision of mobile ad hoc networks : a lightweight, robust and reliable Intrusion detection system

Alattar, Mouhannad 12 July 2013 (has links)
Les réseaux mobiles ad hoc, appelé généralement MANET ( Mobile Ad hoc NETwork ) continuent augmenter leur présence dans notre vie. Ils deviennent une pierre angulaire du commerce, de la société, de l'armée, de la science, et même des applications de future. Cependant, ces réseaux opèrent souvent dans des environnements ouverts, ce qui les rend particulièrement vulnérables aux nombreux menaces. Ainsi, les méthodes traditionnelles de sécuriser les réseaux s'appuyant sur les techniques de prévention, par exemple le pare-feu et le cryptage, ne sont plus suffisants et doivent être enrichies par des mécanismes réactifs comme le système de détection d'intrusions (ou Intrusion Detection System(IDS)). Concevoir un IDS pour les MANETs est assez difficile parce qu'il doit à la fois assurer une précision de détection élevée, prendre en compte les ressources limitées (en terme de mémoire, de batteries et la bande passante), et adapter à la nature dynamique de ces réseaux. En plus, le système de détection ne devrait pas être une cible d'attaques ou la falsification. Nous avons proposé dans cette thèse un système robuste, léger et efficace de détection qui répond aux exigences de MANETs. Nous avons d'abord étudié les attaques qui menacent les MANETs, en se concentrant sur les attaques visant le protocole de routage OLSR (Optimized Link State Routing). Ensuite, nous présentons notreIDS qui offre un taux élevé d'attaques ainsi que le maintien efficacement les ressources limitées du réseau. A cet effet, notre système analyse les traces de routage au lieu de surveiller le trafic afin d'identifier tout évidence d’activité suspecte. Après, il fait correspondre les évidences à un ensemble de signatures prédéfinies; une signature est perçue comme étant un ensemble partiellement ordonné d’événements caractérisant une intrusion. En outre, notre IDS dépend du degré de suspicion des évidences afin de manière à efficacement limiter le nombre et la durée de ses opérations coûteuses entermes de ressources. Vers une meilleure gestion des ressources disponibles, nous utilisons également l'intervalle deconfiance pour mesurer la fiabilité de détection. Cette mesure statistique permet à: (i) éviter le gaspillage de ressources résultant de collecte et de traitement des évidences redondantes, et (ii) prendre correctement la décision liées à la détection, par exemple déclarer le noeud suspect comme étant un intrus. Afin d'améliorer la robustesse de notre IDS, nous le couple avec un modèle de crédit basé sur l'entropie. Ce modèle surveille le comportement des noeuds lors de la détection afin d’assigner un crédit pour chaque noeud dans le réseau. Notre IDS se base sur les crédits attribuées aux noeuds afin de réduire les effets néfastes des évidences falsifiées fournies par les noeuds méfiants. Le modèle decrédit proposé prend en compte le niveau de risque des attaques. Plus précisément, le taux de perte de crédit d'un noeud méfiants est relié aux conséquences de l'attaque dont ce noeud a essayé d'aider. Notre IDS et les modèles couplés ont été expérimentées sur différents scénarios de la mobilité et de la densité. Les résultats montrent que notre détecteur offrent un taux de détection élevé, en combinaison avec un entretien remarquable des ressources disponibles. De plus, il présente une robustesse importante contre les faux évidences de détection. / Mobile Ad hoc NETworks (referred to as MANETs) continue increasing their presence in our every day life. They become a corner stone in the commercial, the society, the military, the science, and even the next-generation applications. However, these networks mostly operate over open environments and are therefore vulnerable to a large body of threats. Traditional ways of securing networks relying on preventive techniques, e.g., firewall and encryption, are not sufficient and should henceforth be coupled with a reactive security solution, e.g., the Intrusion Detection Systems (IDSs). Designing anIDS for MANETs is quite challenging because such IDS must not only ensure a high detection accuracy but also take into account the limited resources (e.g., battery life and bandwidth) and the dynamic nature of these networks. Moreover, the designed IDS itself should not be a target of attacks and/or falsification. In this thesis, we respond to these requirements by proposing a lightweight and robust Intrusion Detection System (IDS), dedicated to protecting MANETs. We first explore the space of attacks that threaten MANETs, focusing on the attacks targeting the Optimized Link State Routing protocol. We then introduce our IDS that offers a high rate of attacks along with maintaining efficiently the limited resources in the network. Indeed, contrary to existing systems that monitor the packets going through the host, our system distinguishes itself by parsing and analyzing logs in order to identify patterns of misuse. It further depends on the level of suspicion andgravity involved so as to efficiently restrict the number and the duration of its costly operations, in terms of resources. Towards a better management of the available resources, we also use the confidence interval as a measure of detection reliability. This statistical measure allows our IDS to: (i) identify the redundant evidences, hence the waste of resources resulting from gathering and processing them is avoided, and (ii) correctly make the critical detection-related decisions. In order to enhance the robustness of our IDS, we couple it with an entropy-based trust model that assigns, based on theirunlawful participation in the detection, a low trustworthiness to the misbehaving nodes. Thanks to the estimated trustworthiness, our IDS reduces the bad effects of the falsified feedback provided by the distrustful nodes. The proposed trust model is a risk-aware whereas the higher the risk of an attack, the higher (resp. the lower) is the trust in the nodes which help in detecting (resp. colluding) it. The proposed IDS and the coupled models have been experimented on different scenarios of mobility and density. The results show that our detector offer a high detection rate along with a remarkablemaintenance of the available resources. Moreover, it presents a significant robustness against the falsified detection-related evidences.
8

Utilisation de l’estimateur d’Agresti-Coull dans la construction d’intervalles de confiance bootstrap pour une proportion

Pilotte, Mikaël 10 1900 (has links)
Pour construire des intervalles de confiance, nous pouvons utiliser diverses approches bootstrap. Nous avons un problème pour le contexte spécifique d’un paramètre de proportion lorsque l’estimateur usuel, la proportion de succès dans l’échantillon ˆp, est nul. Dans un contexte classique d’observations indépendantes et identiquement distribuées (i.i.d.) de la distribution Bernoulli, les échantillons bootstrap générés ne contiennent que des échecs avec probabilité 1 et les intervalles de confiance bootstrap deviennent dégénérés en un seul point, soit le point 0. En contexte de population finie, nous sommes confrontés aux mêmes problèmes lorsqu’on applique une méthode bootstrap à un échantillon de la population ne contenant que des échecs. Une solution possible s’inspire de l’estimateur utilisé dans les méthodes de [Wilson, 1927] et [Agresti et Coull, 1998] où ceux-ci considèrent ˜p l’estimateur qui prend la proportion de succès d’un échantillon augmenté auquel on a ajouté deux succès et deux échecs. La solution que nous introduisons consiste à effectuer le bootstrap de la distribution de ˆp mais en appliquant les méthodes bootstrap à l’échantillon augmenté de deux succès et deux échecs, tant en statistique classique que pour une population finie. Les résultats ont démontré qu’une version de la méthode percentile est la méthode bootstrap la plus efficace afin d’estimer par intervalle de confiance un paramètre de proportion autant dans un contexte i.i.d. que dans un contexte d’échantillonnage avec le plan aléatoire simple sans remise. Nos simulations ont également démontré que cette méthode percentile pouvait compétitionner avantageusement avec les meilleures méthodes traditionnelles. / A few bootstrap approaches exist to create confidence intervals. Some difficulties appear for the specific case of a proportion when the usual estimator, the proportion of success in a sample, is 0. In the classical case where the observations are independently and identically distributed (i.i.d.) from a Bernoulli distribution, the bootstrap samples only contain zeros with probability 1 and the resulting bootstrap confidence intervals are degenerate at the value 0. We are facing the same problem in the survey sampling case when we apply the bootstrap method to a sample with all observations equal to 0. A possible solution is suggested by the estimator found in the confidence intervals of [Wilson, 1927] and [Agresti et Coull, 1998] where they use ˜p the proportion of success in a augmented sample consisting of adding two successes and two failures to the original sample. The proposed solution is to use the bootstrap method on ˆp but where the bootstrap is based on the augmented sample with two additional successes and failures, whether the sample comes from i.i.d. Bernoulli variables or from a simple random sample. Results show that a version of the percentile method is the most efficient bootstrap method to construct confidence intervals for a proportion both in the classical setting or in the case of a simple random sample. Our results also show that this percentile interval can compete with the best traditional methods.
9

Approche bayésienne de la construction d'intervalles de crédibilité simultanés à partir de courbes simulées

Lapointe, Marc-Élie 07 1900 (has links)
Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour. / This master's thesis addresses the problem of the simulation of simultaneous credible intervals in a Bayesian context. First, we will study precipation data and two functions based on these data : the empirical distribution function and the return period, a non-linear function of the empirical distribution. We will review different methods already known to obtain simultaneous confidence intervals of these functions with a polynomial basis and we will present a method to simulate simultaneous credible intervals. Second, we will explore some models of prior distributions and in the more complex one, we will need the Monte-Carlo method to simulate simultaneous posterior credible intervals. Finally, we will use a non-linear basis based on the angular transformation and on monotone splines to obtain valid simultaneous credible intervals for the return period.
10

Méthode d'inférence par bootstrap pour l'estimateur sisVIVE en randomisation mendélienne

Dessy, Tatiana 11 1900 (has links)
No description available.

Page generated in 0.505 seconds