• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • 2
  • Tagged with
  • 13
  • 13
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Intervalles de confiance pour une différence de deux proportions

Gagnon, Patrick. January 2007 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2006. / Titre de l'écran-titre (visionné le 28 mars 2007). Bibliogr.
2

Intervalles de confiance pour une différence de deux proportions

Gagnon, Patrick 12 April 2018 (has links)
L'intervalle de confiance le plus connu pour une différence de deux proportions est l'intervalle de Wald. Cet intervalle a l'avantage d'être simple à construire, mais il est anti-conservateur. Il existe plusieurs intervalles alternatifs à l'intervalle deWald qui performent beaucoup mieux. Dans ce mémoire, on s'intéressera particulièrement à l'intervalle d'Agresti-Coull et à l'intervalle bayésien approximatif. Ces intervalles performent très bien tout en étant simples à construire. On regardera d'abord la performance de ces intervalles lorsqu'on a deux échantillons indépendants de tailles fixées au départ. On regardera aussi leur performance lorsque le nombre d'observations dépend des vraies proportions, soit dans une expérience à étapes multiples, soit dans une expérience à allocations séquentielles ou un plan adaptatif est utilisé.
3

Approximation de la distribution de la distance entre deux courbes empiriques

Ouellette, Nadine January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Prévision et réapprovisionnement dynamiques de produits de consommation à cycle rapide

Bouchard, Joëlle 24 April 2018 (has links)
L’industrie du commerce de détail est en plein bouleversement, de nombreuses bannières ont annoncé récemment leur fermeture, telles que Jacob, Mexx, Danier, Smart Set et Target au Canada, pour n’en nommer que quelques-unes. Pour demeurer compétitives et assurer leur pérennité, les entreprises en opération doivent s’adapter aux nouvelles habitudes d’achat des consommateurs. Nul doute qu’une meilleure connaissance de la demande s’impose. Or comment estimer et prévoir cette demande dans un contexte où la volatilité croit constamment, où la pression de la concurrence est omniprésente et globale, et où les cycles de vie des produits sont de plus en plus courts ? La gestion de la demande est un exercice difficile encore aujourd’hui, même avec le développement d’outils de plus en plus sophistiqués. L’environnement dynamique dans lequel évoluent les organisations explique, en partie, cette difficulté. Le client, depuis les 30 dernières années, est passé de spectateur passif à acteur de premier plan, modifiant inévitablement la relation consommateur-entreprise. Le développement technologique et la venue du commerce en ligne sont aussi largement responsables de la profonde mutation que subissent les entreprises. La façon de faire des affaires n’est plus la même et oblige les entreprises à s’adapter à ces nouvelles réalités. Les défis à relever sont nombreux. Les entreprises capables de bien saisir les signaux du marché seront mieux outillées pour prévoir la demande et prendre des décisions plus éclairées en réponse aux besoins des clients. C’est donc autour de ce thème principal, à travers un exemple concret d’entreprise, que s’articule cette thèse. Elle est divisée en trois grands axes de recherche. Le premier axe porte sur le développement d’une méthode de prévision journalière adaptée aux données de vente ou de demande présentant une double saisonnalité de même que des jours spéciaux. Le second axe de recherche, à deux volets, présente d’abord une méthode de prévision par ratios permettant de prévoir rapidement les ventes ou demandes futures d’un très grand nombre de produits et ses variantes. En deuxième volet, il propose une méthode permettant de calculer des prévisions cumulées de vente ou demande et d’estimer la précision de la prévision à l’aide d’un intervalle de confiance pour des produits récemment introduits dans les magasins d’une chaîne. Enfin, le troisième axe traite d’un outil prévisionnel d’aide à la décision de réapprovisionnement et propose des recommandations de taille de commande basées sur les résultats d’une analyse prévisionnelle, sur le déploiement des produits ciblés et sur l’analyse de la demande et des inventaires des produits substituts potentiels. Mots-clés : Prévision; saisonnalité; effet calendaire; produit sans historique; intervalle de confiance; décision de réapprovisionnement; réseau de détail. / The retail industry is in upheaval. Many banners have recently announced their closure, such as Jacob, Mexx, Danier, Smart Set and Target in Canada, to name a few. To remain competitive and ensure their sustainability, companies have to adapt themselves to new consumer buying habits. No doubt that a better understanding of demand is needed. But how to estimate and forecast demand in a context with constantly increasing volatility and ever shorter product lifecycles, where competitive pressure is pervasive and global? Managing demand is a difficult exercise, even in this age when numerous sophisticated tools have been developed. The dynamic environment in which organizations evolve explains in part the difficulty. Through the past 30 years, the customer has gone from passive spectator to leading actor, inevitably changing the consumer-business relationship. Technological development and the advent of e-commerce are also largely responsible for profound changes experienced by businesses. The way of doing business is not the same and forces companies to adapt to these new realities. The challenges are important. Companies able to seize market signals will be better equipped to anticipate demand and make better decisions in response to customer needs. This thesis is articulated according to three main lines of research around this main theme, exploiting a real business testbed. The first theme concerns the development of a daily forecast method adapted to sales data with a double seasonality as well as special days. The second twofold research first presents a forecasting method for using ratio to quickly forecast sales or future demands of a very large number of products and their variations. Then it proposes a method to determine cumulative sales forecasts and confidence intervals for products newly introduced in the chain stores. Finally, the third axis proposes a predictive method to help reorder launching and sizing decision based on the results of a predictive analysis, deployment of targeted products and inventory of potential substitute products. Keywords : Forecasting; seasonality; calendar effect; products without demand history; confidence intervals; replenishment decision; retail network.
5

Estimation de la variance et construction d'intervalles de confiance pour le ratio standardisé de mortalité avec application à l'évaluation d'un programme de dépistage du cancer

Talbot, Denis 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'effet d'un programme de dépistage de cancer peut être évalué par le biais d'un ratio standardisé de mortalité (SMR). Dans ce mémoire, nous proposons un estimateur de la variance du dénominateur du SMR, c'est-à-dire du nombre de décès attendus, dans le cas où ce dernier est calculé selon la méthode de Sasieni. Nous donnons d'abord une expression générale pour la variance, puis développons des cas particuliers où des estimateurs spécifiques de l'incidence de la maladie et de son temps de survie sont utilisés. Nous montrons comment ce nouvel estimateur de la variance peut être utilisé dans la construction d'intervalles de confiance pour le SMR. Nous étudions la couverture de différents types d'intervalles de confiance par le biais de simulations et montrons que les intervalles utilisant l'estimateur de variance proposé disposent des meilleures propriétés. Nous appliquons la méthode suggérée sur les données du Programme québécois de dépistage du cancer du sein.
6

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
7

Contributions à l'analyse multifractale des coefficients d'ondelettes dominants et du bootstrap : Images, performances d'estimation, nombre de moments nuls et structure de dépendance. Intervalles de confiance et tests d'hypothèse.

Wendt, Herwig 23 September 2008 (has links) (PDF)
L'invariance d'échelle constitue un paradigme souvent avancé pour l'analyse et la modélisation de données expérimentales issues d'applications de natures différentes. L'analyse multifractale fournit un cadre conceptuel pour ses études théorique et pratique. Dans ce contexte, l'objectif de cette thèse réside dans l'apport à l'analyse multifractale, de l'utilisation des coefficients d'ondelettes dominants, d'une part, et des techniques statistiques de type bootstrap, d'autre part. Dans la première partie de ce travail, les propriétés et performances statistiques de procédures d'analyse multifractale construites à partir de coefficients dominants sont étudiées et caractérisées. Il est notamment montré qu'elles se comparent favorablement à celles obtenues à partir de coefficients d'ondelettes. De plus, une extension aux signaux bidimensionnels (images) est proposée et validée. En complément sont étudiées plusieurs difficultés théoriques, d'importance cruciale pour une réelle mise en œuvre pratique de l'analyse multifractale : régularité minimale et espaces fonctionnels, effet de linéarisation, robustesse vis-à-vis d'éventuelles quantifications des données. La deuxième partie de ce travail de thèse s'intéresse à la construction, pour les attributs multifractals, d'intervalles de confiance et de tests d'hypothèse, à partir de techniques 'bootstrap'. L'originalité de notre approche réside dans la mise en œuvre du bootstrap par construction de blocs temps-échelle dans le plan des coefficients d'ondelettes. Cette procédure, validée par simulations numériques, permet d'obtenir des intervalles de confiance et d'effectuer des tests d'hypothèses à partir d'une seule observation des données, de longueur finie. Une étude précise des structures de dépendance des coefficients d'ondelettes et coefficients dominants complète ce travail. Elle montre notamment que l'augmentation du nombre de moments nuls de l'ondelette d'analyse, qui, pour le mouvement brownien fractionnaire, permet de réduire la portée de la structure de dépendance de longue à courte, est inopérante pour les cascades multiplicatives multifractales : si l'augmentation du nombre de moments nuls décorrèle effectivement les coefficients d'ondelette, elle échoue à faire disparaître la dépendance longue. Enfin, les procédures d'analyse multifractale par coefficients dominants et bootstrap sont illustrées sur deux applications : la turbulence hydrodynamique et la classification de texture d'images.
8

Estimation non-paramétrique et convergence faible des mesures de pauvreté

Seck, Cheikh Tidiane 23 March 2011 (has links) (PDF)
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.
9

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles

Yang, Qing 15 March 2013 (has links) (PDF)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche.
10

Comparaison empirique des méthodes bootstrap dans un contexte d'échantillonnage en population finie.

Dabdoubi, Oussama 08 1900 (has links)
No description available.

Page generated in 0.1266 seconds