• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 8
  • 2
  • Tagged with
  • 37
  • 37
  • 16
  • 16
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Prévision de série issue de l'agrégation contemporaine : comparaison entre l'approche agrégée et désagrégée

Marcil, Philippe January 2007 (has links) (PDF)
Nous étudions la différence des erreurs de prévisions entre une représentation agrégée et désagrégée lorsque l'on s'intéresse à la prévision de la série agrégée. Pour ce faire, nous développons un modèle théorique qui étudie les erreurs de prévisions d'une représentation agrégée et désagrégée en unissant les théories de différents auteurs dans un même cadre analytique. Le modèle que nous avons développé démontre que la présence de racine commune est essentielle, mais est une condition non suffisante pour que le modèle agrégé ait une erreur de prévision plus faible que le modèle désagrégé. De plus, les simulations démontrent que la présence de racines communes aide à faire diminuer l'écart des erreurs de prévisions entre une représentation agrégée et désagrégée.
2

DMAP : une nouvelle méthode de cartographie génétique fine adaptée à des modèles génétiques complexes

Descary, Marie-Hélène 08 1900 (has links) (PDF)
Dans ce mémoire, nous présentons une nouvelle méthode de cartographie génétique fine ayant comme particularité de pouvoir être utilisée dans le cadre de modèles génétiques complexes. Nous présentons tout d'abord quelques concepts de génétique et de statistique génétique, avec une emphase particulière sur le processus de coalescence qui est à la base de notre travail. Par la suite, trois méthodes de cartographie génétique déjà existantes sont présentées ; notre nouvelle méthode contient des éléments de chacune d'entre elles. Nous décrivons ensuite la nouvelle méthode proposée dans ce mémoire. Finalement, nous testons notre nouvelle approche à l'aide de simulations; nous comparons par la suite les résultats obtenus avec notre méthode à ceux obtenus par des tests d'association classiques, et par deux des trois méthodes présentées au début du mémoire. Les résultats nous laissent croire que notre méthode est performante autant dans des cas de modèles génétiques simples que complexes, contrairement à la plupart des méthodes existantes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : cartographie génétique, processus de coalescence, arbre de recombinaison ancestral, arbre partiel, distribution proposée, fonction de pénétrance.
3

Modèles de survie avec un point de rupture

Rabhi, Yassir January 2006 (has links) (PDF)
Matthews et Farewell (1982, 1985) ont proposé le modèle de risque instantané constant avec un point de rupture pour modéliser les temps de rechute après le traitement « remission induction ». Dans ce mémoire, des études théoriques et simulées des statistiques de score et du test des rapports de vraisemblances sont présentées, afin de tester l'existence d'un temps de rupture dans le modèle de risque instantané constant. Les méthodes d'estimation du point de rupture et des autres paramètres du modèle sont aussi discutées dans la première partie de ce travail, avec une application du modèle sur des données réelles. Le modèle des risques proportionnels avec un point de rupture de Liang et al.(1990) est discuté dans la deuxième moitié du mémoire comme un cas spécial du modèle de Cox avec covariables dépendantes du temps. Les caractéristiques de ce modèle et quelques difficultés d'inférence liées à celui-ci sont également présentées. À titre d'exemple, le modèle est appliqué à une série de données recueillies dans un groupe de patients qui suivent deux traitements différents du cancer du poumon. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Temps de rupture, Modèle de risque constant avec point de rupture, Modèle de Cox avec un point de rupture, Statistique de score, Statistique du test des rapports de vraisemblances.
4

Modélisation statistique du Speckle en OCT : application à la segmentation d'images de la peau / Statistical modelization of speckle in Optical Coherence Tomography (OCT) : application of skin images segmentation

Mcheik, Ali 28 October 2010 (has links)
Cette thèse porte sur la segmentation d'images OCT cutanées. Cette modalité d'imagerie permet de visualiser les structures superficielles avec une profondeur de l'ordre du millimètre. En dermatologie, elle permet d'explorer l'épiderme et sa jonction avec le derme. Cependant, les images OCT sont sévèrement affectées par le bruit speckle. Ce phénomène conjugué à la complexité inhérente aux structures de la peau rend l'interprétation des images difficile même pour des experts. L'approche classique consiste à filtrer le speckle avant de faire des traitements de segmentation. A l'inverse, dans cette thèse nous exploitons exclusivement le bruit comme information pour segmenter. Notre approche repose sur la modélisation statistique du speckle. La segmentation se fait par classification des paramètres de ce modèle probabiliste. Ainsi, - On montre que le speckle ne suit pas une loi Rayleigh, comme cela est établi analytiquement. - On ajuste plusieurs lois de probabilité à l'amplitude OCT; et on montre que celle-ci est distribuée selon la loi Gamma généralisée. - On établit que les paramètres de cette loi discriminent statistiquement les couches de la peau. - On conçoit une méthode de segmentation par classification des paramètres locaux du speckle. Les nombreuses expérimentations faites sur plusieurs corpus d'images in-vivo confirment la validité de notre approche. / This thesis deals with the segmentation of skin OCT images. This modality provides the means to visualize superficial structures down to a millimeter depth. In dermatology, it is used to examine the epidermis and its junction with the dermis. However, OCT images are severely affected by the speckle noise. This random phenomenon added to the complexity of human skin structures makes the visual interpretation of images very difficult. Classical image processing techniques filter this noise prior to any segmentation step. In this thesis, we rely exclusively on the properties of the speckle to perform segmentation. Our approach is based on the statistical modeling of the speckle. Images are segmented by classifying parameters of the statistical model. Therefore, - We show that speckle does not follow the Rayleigh distribution, as developed analytically in the literature. - We fit various probability laws to model OCT signal amplitude ; we show that Generalized Gamma has the best goodness of fit. - We establish that statistical parameters of this distribution discriminate skin layers with good variability. - We develop a segmentation method based on the classification of local statistical parameters. The various experimental results with a number of in-vivo images reported in the thesis confirm the validity of our approach
5

Vérification de la validité du concept de surface somme par une approche statistique du contact élastique entre deux surfaces rugueuses / Validity study of the sum surface concept using a statistical approach of elastic contact between two rough surfaces

Tran, Ich tach 26 January 2015 (has links)
Les propriétés de surface, particulièrement microgéométriques, jouent un rôle essentiel dans tous les systèmes tribologiques. L’analyse de la répartition des efforts de contact dans l’interface entre surfaces rugueuses est indispensable à la prédiction du frottement, de l'usure, de l'adhérence, des résistances de contact électrique et thermique… De nombreux modèles ont été proposés ces dernières décennies pour prédire les efforts entre aspérités de surfaces rugueuses. Parmi ces modèles, les modèles statistiques sont majoritairement développés en considérant le contact ente une surface rugueuse équivalente, la surface somme - qui tient compte des microgéométries des deux surfaces en contact ainsi que de leur matériau - et un plan lisse. Cependant la validité de cette modélisation n’a pas été clairement démontrée. L’objectif de notre étude a été de développer un modèle statistique de contact entre deux surfaces rugueuses isotropes aléatoires puis de comparer les résultats obtenus pour ces deux surfaces avec ceux obtenus en considérant la surface somme définie classiquement à partir des deux surfaces rugueuses et un plan lisse. Les différences entre les résultats nous ont amenés à proposer une nouvelle modélisation de la surface somme. / Surface properties, particularly micro-geometry, play a key role in all tribological systems. The analysis of the distribution of contact forces in the interface between rough surfaces is essential for the prediction of friction, wear, adhesion, electrical and thermal contact resistance... Many models have been proposed during the last decades to predict the forces between asperities of rough surfaces. Among these models, statistical models are mainly based on the contact between an equivalent rough surface, the sum surface - which combines micro-geometry of the two surfaces in contact and their material - and a smooth plane. However, the validity of this model has not been clearly demonstrated. The aim of our study was to develop a statistical model of the contact between two random isotropic rough surfaces and then compare the results with those obtained by considering the classical sum surface. The differences between the results have led us to propose a new definition for the sum surface.
6

Développement d'un modèle d'estimation des variables de trafic urbain basé sur l'utilisation des technologies de géolocalisation

Hofleitner, Aude 04 December 2012 (has links) (PDF)
Face à l'augmentation de la mobilité, les politiques de développement durable cherchent à optimiser l'utilisation des infrastructures de transport existantes. En particulier, les systèmes d'information du trafic à large échelle ont le potentiel d'optimiser l'utilisation du réseau de transport. Ils doivent fournir aux usagers une information fiable en temps réel leur permettant d'optimiser leurs choix d'itinéraires. Ils peuvent également servir d'outils d'aide à la décision pour les gestionnaires du réseau. La thèse étudie comment l'émergence des services Internet sur les téléphones portables et la rapide prolifération des systèmes de géolocalisation permet le développement de nouveaux services d'estimation et d'information des conditions de trafic en réseau urbain. L'utilisation des données provenant de véhicules traceurs nécessite le développement de modèles et d'algorithmes spécifiques, afin d'extraire l'information de ces données qui ne sont envoyées, jusqu'à présent, que par une faible proportion des véhicules circulant sur le réseau et avec une fréquence faible. La variabilité des conditions de circulations, due à la présence de feux de signalisation, motive une approche statistique de la dynamique du trafic, tout en intégrant les principes physiques hydrodynamiques (formation et dissolution de files d'attentes horizontales). Ce modèle statistique permet d'intégrer de façon robuste les données bruitées envoyées par les véhicules traceurs, d'estimer les paramètres physiques caractérisant la dynamique du trafic et d'obtenir l'expression paramétrique de la loi de probabilité des temps de parcours entre deux points quelconques du réseau. La thèse s'appuie sur les données et les infrastructures développées par le projet Mobile Millennium à l'Université de Californie, Berkeley pour valider les modèles et algorithmes proposés. Les résultats soulignent l'importance du développement de modèles statistiques et d'algorithmes adaptés aux données disponibles pour développer un système opérationnel d'estimation du trafic à large échelle
7

L'estimation des facteurs d'équivalence de revenu : le cas du Québec

Lavigne, Benoît January 2007 (has links) (PDF)
L'objectif de cet ouvrage est de procéder à l'estimation d'une échelle d'équivalence de revenu pour le Québec. Cet objectif revêt une importance particulière puisqu'une telle échelle semble ne jamais avoir été estimée pour le cas particulier du Québec. La méthode choisie repose sur l'estimation d'un système de demande complet tout en assurant l'exactitude des facteurs d'équivalence. Cette méthode s'inspire des travaux réalisés par Shelley A. Phipps (1998) sur les familles canadiennes, mais en modifiant le modèle de manière à admettre tous les types de ménages. Les microdonnées utilisées proviennent de l'Enquête sur les dépenses des ménages de 1997 à 2004 réalisée par Statistique Canada. Les prix proviennent des indices des prix à la consommation annuels de 1997 à 2004, par province, tirés du tableau 326-0002 de Statistique Canada. Sept échelles d'équivalence, dont trois québécoises, sont obtenues à l'aide de sous-ensembles différents définis par des régions et des ensembles de biens différents. Nous avons débuté par utiliser cinq catégories de biens pour les régions du Québec, du Québec urbain, des Maritimes, des Prairies, de la Colombie-Britannique et de l'Ontario, puis, afin de comparer nos résultats avec les études précédentes, nous avons utilisé seulement quatre catégories de biens pour le Québec urbain. Les résultats obtenus permettent d'énoncer certains constats empiriques importants, notamment en ce qui a trait aux divergences rurales et urbaines, aux divergences interprovinciales et aux impacts du choix des biens pris en compte lors de l'estimation. Les échelles obtenues sont comparées à l'échelle implicite suivie par le gouvernement via ses programmes sociaux. On constate un écart considérable entre celles-ci. On constate également une disproportion adultes-enfants. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Facteurs d'équivalence, Échelles d'équivalence, Économie du bien-être, Revenu des ménages.
8

Le rôle du conseil d'administration dans la création de valeur pour les actionnaires : une étude canadienne

Sayumwe, Michel January 2006 (has links) (PDF)
La gouvernance corporative est de nos jours un sujet d'actualité. Cela nous a amené à nous intéresser à la question du rôle du conseil d'administration dans les entreprises publiques canadiennes. Nous avons pour cela voulu examiner la pertinence de certaines caractéristiques du conseil d'administration dans la création de valeur pour les actionnaires. Des quatorze normes de gouvernance en vigueur à la Bourse de Toronto au 31 décembre 2004, nous en avons extrait quelques unes que nous estimons appropriées aux fins de l'étude à savoir la taille du conseil, la fréquence annuelle des réunions, la proportion des administrateurs non reliés et la taille du comité de vérification. Nous avons également tenu compte d'autres informations comme la rémunération des administrateurs et la proportion du capital détenu par ces derniers. Enfin, aux six variables indépendantes faisant l'objet de nos six hypothèses, nous avons ajouté deux variables de contrôle qui sont le type de l'actionnariat et la séparation des postes de chef de la direction et de président du conseil. Nous avons testé six hypothèses dans un échantillon de cinquante quatre des plus grandes entreprises cotées à la Bourse de Toronto (TSX-60), à l'exception des banques. Notre étude couvre une période quinquennale allant de 2000 à 2004. Pour opérationnaliser la création de valeur par le conseil d'administration, nous nous sommes servis de deux modèles statistiques qui sont le modèle de la prime de marché dont la variable dépendante est le ratio market-to-book et le modèle de la valorisation boursière dont la variable dépendante est le cours boursier en vigueur trois mois après la fin d'exercice fiscal. Dans le premier modèle fondé sur la prime de marché, nos résultats nous indiquent que le pourcentage de la rémunération des administrateurs par rapport aux capitaux propres et le pourcentage des actions détenues sont positivement corrélés à la variable dépendante. La taille du conseil est quant à elle négativement corrélée à la prime de marché. Dans le modèle de la valorisation boursière, nous remarquons également que les trois variables ci-dessus sont statistiquement significatives et ce dans le même sens que le premier modèle. A cela s'ajoutent l'importance des administrateurs non reliés et l'absence de dualité qui sont négativement corrélées au cours boursier. Cette recherche confirme dans une certaine mesure la véracité des normes de gouvernance et l'intérêt des actionnaires à exiger leur respect par le conseil d'administration. Toutefois, l'importance des administrateurs non reliés devrait être interprétée avec prudence puisqu'elle peut être le reflet de la faiblesse de performance des entreprises durant les années antérieures dont la tendance est de remplacer certains administrateurs reliés par ceux non reliés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Conseil d'administration, Création de valeur, Valorisation boursière, Gouvernance, Prime de marché, Théorie de l'agence.
9

Morale fiscale : une étude empirique pour l'Amérique latine

Padilla, Juliana January 2010 (has links) (PDF)
Afin d'évaluer les systèmes de taxation, développer et intégrer des nouvelles politiques de taxation, il est important de tenir compte du phénomène de l'évasion fiscale. Il est nécessaire de comprendre qui paye ou ne paye pas les impôts et pourquoi. L'évasion fiscale a été analysée dans la théorie économique comme un problème individuel de maximisation de l'utilité sous incertitude. Dans ce contexte, le modèle standard de l'évasion fiscale suppose que les individus prennent la décision d'éluder ou de ne pas le faire en tenant compte des gains matériaux que chaque action représente et des niveaux d'aversion au risque. Ce modèle standard présente plusieurs défaillances car il prédit des taux d'évasion plus élevés que dans la réalité. En effet, la question n'est pas pourquoi les individus éludent leurs taxes mais pourquoi ils ne le font pas assez. Une des principales critiques du modèle standard est le fait d'ignorer les considérations éthiques et morales qui sont présentes dans la décision d'éluder. Diverses études ont montré que les individus ont une moralité qui les empêche d'éluder leurs impôts même si cette dernière action représente un gain matériel. Ce travail vise à analyser les déterminants de cette moralité fiscale dans les pays de l'Amérique Latine. Un intérêt particulier est donné aux variables liées à la perception de l'individu par rapport au système social et politique. En général les résultats montrent que la satisfaction envers le gouvernement, envers les autres individus et une perception négative du niveau de corruption influencent positivement la morale fiscale.
10

Algorithmes de recherche pour sélection de modèles

Motoc, Claudiu Mircea 11 1900 (has links) (PDF)
Dans ce mémoire, nous nous intéressons à des algorithmes de sélection de modèles dans un contexte de régression linéaire et logistique. Nous expliquons premièrement les notions de régression linéaire et logistique et deux critères de sélection, AIC et BIC. Ensuite, nous faisons une revue des aspects théoriques des algorithmes les plus connus en détaillant deux d'entre eux, Leaps and Bounds et Occam’s Window. Pour ces deux derniers, nous présentons aussi les détails pratiques des logiciels qui font leur implantation. La partie finale est consacrée à l'étude des trois méthodes de sélection des modèles basées sur les algorithmes Leaps and Bounds, Occam’s Window et sur une combinaison entre les deux, en utilisant la technique du moyennage de modèles. Nous présentons les performances de prédiction calculées à l'aide de la technique de validation croisée et les temps d'exécution de ces trois méthodes pour plusieurs jeux de données. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : sélection de modèles, moyennage de modèles, régression linéaire, régression logistique, AIC, BIC, algorithme Leaps and Bounds, algorithme Occam’s Window, validation croisée.

Page generated in 0.0873 seconds