181 |
Caractérisations des lésions cutanées par microspectroscopies optiques vibrationnelles : applications ex vivo et in vivoLy, Elodie Manfait, Michel. Piot, Olivier January 2009 (has links) (PDF)
Reproduction de : Thèse de doctorat : Pharmacie. Ingénierie de la santé. Biophysique : Reims : 2009. / Bibliogr. p.151-162.
|
182 |
Les anisotropies du fond diffus infrarouge : un nouvel outil pour sonder l'évolution des structuresPénin, Aurélie 26 September 2011 (has links) (PDF)
Le fond diffus infrarouge est la contribution de toutes les galaxies infrarouges intégrée sur toute l'histoire de l'Univers. Il émet entre 8 et 1000 µm et à un pic vers 200 µm. On résout une large fraction de ce fond dans l'infrarouge proche mais seule une petite fraction l'est dans l'infrarouge moyen et lointain à cause de la confusion. Les sources les plus faibles sont perdues dans le bruit de confusion. Cela forme des fluctuations de brillance, les anisotropies du fond diffus infrarouge. L'étude de ces fluctuations permet l'étude des galaxies sous le seuil de détection, donc des galaxies les plus faibles. Grâce au spectre de puissance on peut mesurer la puissance conte- nue dans ces fluctuations en fonction de l'échelle spatiale. Cette mesure contient, entre autre, le regroupement des galaxies infrarouges. Dans un premier temps, j'ai isolé du spectre de puissance d'une carte infrarouge, le spectre de puissance dû uniquement aux galaxies infrarouges. En effet, aux grandes échelles spatiales, il est contaminé par l'émission des cirrus Galactiques. Ces cirrus sont des nuages d'hydrogène neutre, tracés par la raie à 21 cm. J'ai donc utilisé des données à 21 cm pour estimer l'émission infrarouge de ces cirrus pour ensuite la soustraire aux cartes infrarouge à 100 et 160 µm. Cela m'a aussi permis de faire une mesure précise du niveau absolu du fond diffus infrarouge à ces longueurs d'onde. Afin d'analyser ces spectres de puissances, j'ai mis en place un modèle de regroupement des galaxies infrarouges reliant un modèle d'évolution des galaxies infrarouge reproduisant les données existantes dont celles d'Herschel et un modèle de halo. C'est un modèle complétement paramétré ce qui permet l'étude des dégénérescences de ces paramètres. J'en ai aussi tiré des mesures physiques et leur évolution avec la longueur d'onde. De plus, j'ai ajusté les données existantes de 100 à 1380 µm. Grâce au modèle on peut déterminer les contributions en redshift à chaque longueur d'onde. Les courtes longueurs d'onde tracent les bas redshifts alors que les grandes longueurs d'onde tracent les hauts redshifts. Cependant la contribution des bas redshifts est loin d'être négligeable à ces longueurs d'onde. Afin de déterminer l'évolution du regroupement avec le redshift des cartes des anisotropies du fond diffus infrarouge sont nécessaires. Je vais expliciter une méthode de séparation de composantes dédiée à cela.
|
183 |
Etude empirique, modélisation et applications des trades à limites multiples dans les carnets d'ordrePomponio, Fabrizio 14 December 2012 (has links) (PDF)
Cette thèse étudie certains évènements particuliers des carnets d'ordre - les "trades traversants". Dans le premier chapitre, on définit les trades traversants comme étant ceux qui consomment la liquidité présente dans le carnet d'ordres sur plusieurs limites, sans laisser le temps à la meilleure limite de se remplir par l'arrivée de nouveaux ordres limites. On étudie leurs propriétés empiriques en fournissant des statistiques de liquidité, de volume, de distribution de leurs temps d'arrivées, de clustering et de relaxation du spread. Leur impact de marché est supérieur à celui des trades classiques, et ce même à volume comparable : les trades traversants présentent donc un contenu informationnel plus grand. On propose deux applications au problème du lead-lag entre actifs/marchés, d'abord pour répondre à la question de savoir quel actif bouge en premier, et ensuite pour mesurer la force du signal des trades traversants dans le cadre d'une stratégie d'investissement basée sur le lead-lag entre actifs. Le chapitre suivant approfondit l'étude empirique du clustering de l'arrivée des trades traversants. On y modélise leur arrivée par des processus stochastiques auto-excités (les processus de Hawkes). Une étude statistique de la calibration obtenue avec des modèles à noyaux exponentiels pour la décroissance temporelle de l'impact est menée et assure une modélisation satisfaisante avec deux processus indépendants, un pour le bid et un pour l'ask. La classe de modèles proposée à la calibration est bien adaptée puisqu'il n'existe pas d'effet inhibiteur après l'arrivée d'un trade traversant. On utilise ces résultats pour calculer un indicateur d'intensité basé sur l'arrivée des trades traversants, et améliorer ainsi une stratégie d'investissement de type "momentum". Enfin, une calibration non-paramétrique du noyau de décroissance temporel d'impact fournit une décroissance empirique encore plus forte qu'une loi exponentielle, et davantage proche d'une loi-puissance. Le dernier chapitre rappelle une méthode générale de détection statistique de sauts dans des séries temporelles de prix/rendements qui soit robuste au bruit de microstructure. On généralise les résultats empiriques connus à de nouveaux indices financiers. On adapte cette méthode de détection statistique de sauts à des trajectoires intraday afin d'obtenir la distribution de la proportion de sauts détectés au cours de la journée. Les valeurs extrémales et les plus grandes variations de cette proportion se déroulent à des heures précises de la journée (14 :30, 15 :00 et 16 :30, heure de Paris), déjà rencontrées dans l'étude des trades traversants. Grâce à eux, on propose une explication des caractéristiques principales du profil intraday de la proportion de sauts détectés par le test, qui s'appuie sur une modification de la part relative de chacune des composantes de sauts dans la trajectoire des actifs considérés (la composante des mouvements continus et celle liée aux mouvements de sauts purs).
|
184 |
Les comportements d'achat et le cycle de vie des ménages canadiensGermain, Anne-Marie 07 1900 (has links) (PDF)
L'objectif premier de cette recherche est de vérifier si le modèle du cycle de vie de la famille de Wells et Gubar de 1966 représente bien l'ensemble de la population canadienne. Dans un cas de non-représentativité, un second objectif se définit : vérifier s'il est possible de segmenter les ménages canadiens selon leur cycle de vie et leurs comportements d'achat en représentant mieux les réalités sociodémographiques actuelles. Utilisant l'Enquête sur les dépenses des ménages de Statistique Canada (2009), notre recherche étudie 13 catégories de dépenses : les vêtements, l'alimentation, les loisirs, le transport, les soins de santé, l'ameublement et l'équipement ménager, le logement, l'entretien ménager, les soins personnels, le matériel de lecture, l'éducation, le tabac et les boissons alcoolisées et finalement, l'assurance individuelle et les cotisations de retraite. Chaque dépense est analysée selon deux mesures : les montants d'agents bruts dépensés annuellement et le pourcentage de la catégorie en proportion des dépenses totales. Les trois hypothèses de recherche sont validées, permettant de confirmer, dans un premier temps (H1), la non-représentativité du modèle de Wells et Gubar de 1966. En second lieu (H2), notre étude valide l'importance de l'intégration des ménages célibataires au modèle du cycle de vie par leurs comportements d'achat significativement différents des ménages traditionnels. Troisièmement (H3), il est possible de créer des segmentations marketing, basées sur les critères du cycle de vie, tenant mieux compte des réalités canadiennes. En plus de proposer 26 segmentations marketing parcimonieuses et exhaustives (deux pour chacune des 13 catégories de dépenses), ce mémoire met à jour le concept sur le plan sociologique par la conception d'un modèle du cycle de vie constitué de 21 groupes représentatifs de la population canadienne. Les segmentations marketing proposées permettent aux gestionnaires de chaque industrie de savoir concrètement sur quel groupe miser en termes d'importance de marché et en termes d'importance de la catégorie pour les groupes par rapport à leurs dépenses totales.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Cycle de vie, comportements d'achat, ménage, dépenses, Canada.
|
185 |
Indices de Sobol généralisés pour variables dépendantesChastaing, Gaëlle 23 September 2013 (has links) (PDF)
Dans un modèle qui peut s'avérer complexe et fortement non linéaire, les paramètres d'entrée, parfois en très grand nombre, peuvent être à l'origine d'une importante variabilité de la sortie. L'analyse de sensibilité globale est une approche stochastique permettant de repérer les principales sources d'incertitude du modèle, c'est-à-dire d'identifier et de hiérarchiser les variables d'entrée les plus influentes. De cette manière, il est possible de réduire la dimension d'un problème, et de diminuer l'incertitude des entrées. Les indices de Sobol, dont la construction repose sur une décomposition de la variance globale du modèle, sont des mesures très fréquemment utilisées pour atteindre de tels objectifs. Néanmoins, ces indices se basent sur la décomposition fonctionnelle de la sortie, aussi connue sous le nom de décomposition de Hoeffding. Mais cette décomposition n'est unique que si les variables d'entrée sont supposées indépendantes. Dans cette thèse, nous nous intéressons à l'extension des indices de Sobol pour des modèles à variables d'entrée dépendantes. Dans un premier temps, nous proposons une généralisation de la décomposition de Hoeffding au cas où la forme de la distribution des entrées est plus générale qu'une distribution produit. De cette décomposition généralisée aux contraintes d'orthogonalité spécifiques, il en découle la construction d'indices de sensibilité généralisés capable de mesurer la variabilité d'un ou plusieurs facteurs corrélés dans le modèle. Dans un second temps, nous proposons deux méthodes d'estimation de ces indices. La première est adaptée à des modèles à entrées dépendantes par paires. Elle repose sur la résolution numérique d'un système linéaire fonctionnel qui met en jeu des opérateurs de projection. La seconde méthode, qui peut s'appliquer à des modèles beaucoup plus généraux, repose sur la construction récursive d'un système de fonctions qui satisfont les contraintes d'orthogonalité liées à la décomposition généralisée. En parallèle, nous mettons en pratique ces méthodes sur différents cas tests.
|
186 |
Méthodes statistiques pour la fouille de données dans les bases de données de génomique / Statistical methods for data mining in genomics databases (Gene Set En- richment Analysis)Charmpi, Konstantina 03 July 2015 (has links)
Cette thèse est consacrée aux tests statistiques, visant à comparer un vecteur de données numériques, indicées par l'ensemble des gènes du génome humain, à un certain ensemble de gènes, connus pour être associés par exemple à un type donné de cancer. Parmi les méthodes existantes, le test Gene Set Enrichment Analysis est le plus utilisé. Néanmoins, il a deux inconvénients. D'une part, le calcul des p-valeurs est coûteux et peu précis. D'autre part, il déclare de nombreux résultats significatifs, dont une majorité n'ont pas de sens biologique. Ces deux problèmes sont traités, par l'introduction de deux procédures statistiques nouvelles, les tests de Kolmogorov-Smirnov pondéré et doublement pondéré. Ces deux tests ont été appliqués à des données simulées et réelles, et leurs résultats comparés aux procédures existantes. Notre conclusion est que, au-delà leurs avantages mathématiques et algorithmiques, les tests proposés pourraient se révéler, dans de nombreux cas, plus informatifs que le test GSEA classique, et traiter efficacement les deux problèmes qui ont motivé leur construction. / Our focus is on statistical testing methods, that compare a given vector of numeric values, indexed by all genes in the human genome, to a given set of genes, known to be associated to a particular type of cancer for instance. Among existing methods, Gene Set Enrichment Analysis is the most widely used. However it has several drawbacks. Firstly, the calculation of p-values is very much time consuming, and insufficiently precise. Secondly, like most other methods, it outputs a large number of significant results, the majority of which are not biologically meaningful. The two issues are addressed here, by two new statistical procedures, the Weighted and Doubly Weighted Kolmogorov-Smirnov tests. The two tests have been applied both to simulated and real data, and compared with other existing procedures. Our conclusion is that, beyond their mathematical and algorithmic advantages, the WKS and DWKS tests could be more informative in many cases, than the classical GSEA test and efficiently address the issues that have led to their construction.
|
187 |
Effet des cellules stromales mésenchymateuses (CSM) sur l'hypersensibilité viscérale chronique dans un modèle d'ulcération colique radio-induite chez le ratDurand, Christelle 19 June 2014 (has links) (PDF)
Les douleurs viscérales chroniques font partie des effets secondaires des patients traités pour des cancers de la zone pelvienne. Ces douleurs peuvent affecter grandement la qualité de vie de ces patients. Dans les cas les plus graves, il n'existe pas de traitement analgésique efficace. Ainsi le développement de nouvelles stratégies thérapeutiques efficaces constitue un enjeu majeur. Au sein de notre laboratoire, le potentiel réparateur et immuno-modulateur des cellules stromales mésenchymateuses (CSM) a déjà été démontré dans un modèle d'ulcération colorectale radio-induite chez le rat. Dans ce contexte, l'objectif de ma thèse était d'évaluer d'abord la pertinence de l'utilisation de ce modèle pour l'étude de l'hypersensibilité viscérale persistante radio-induite, puis, le bénéfice thérapeutique de l'utilisation des CSM comme agent antinociceptif. Nous avons dans un premier temps démontré, dans ce modèle, le maintien au cours du temps d'une hypersensibilité viscérale associée à une sensibilisation centrale persistante après irradiation, validant ainsi le modèle. Nous avons ensuite montré l'implication des mastocytes (MC) et suggéré l'implication du neuromédiateur NO dans les mécanismes de la sensibilisation périphérique sous-tendant une telle hypersensibilité. Nous avons enfin mis en évidence que le traitement par des CSM permettait la réduction de l'hypersensibilité viscérale radio-induite persistante. La capacité des CSM à moduler l'activation des MC et/ou leurs interactions avec les fibres nerveuses pourrait être impliquée dans leur action antinociceptive. En conclusion, ce travail a permis d'élargir le spectre d'action thérapeutique des CSM dans notre modèle d'étude.
|
188 |
Classification parcimonieuse et discriminante de données complexes. Une application à la cytologieBrunet, Camille 01 December 2011 (has links) (PDF)
Les thèmes principaux de ce mémoire sont la parcimonie et la discrimination pour la modélisation de données complexes. Dans une première partie de ce mémoire, nous nous plaçons dans un contexte de modèle de mélanges gaussiens: nous introduisons une nouvelle famille de modèles probabilistes qui simultanément classent et trouvent un espace discriminant tel que cet espace discrimine au mieux les groupes. Une famille de 12 modèles latents discriminants (DLM) modèles est introduite et se base sur trois idées: tout d'abord, les données réelles vivent dans un sous-espace latent de dimension intrinsèque plus petite que celle de l'espace observé; deuxièmement, un sous-espace de K-1 dimensions est suffisant pour discriminer K groupes; enfin, l'espace observé et celui latent sont liés par une transformation linéaire. Une procédure d'estimation, appelée Fisher-EM, est proposée et améliore la plupart du temps les performances de clustering grâce à l'utilisation du sous-espace discriminant. Dans un second travail, nous nous sommes intéressés à la détermination du nombre de groupes en utilisant le cadre de la sériation. nous proposons d'intégrer de la parcimonie dans les données par l'intermédiaire d'une famille de matrices binaires. Ces dernière sont construites à partir d'une mesure de dissimilarité basée sur le nombre de voisins communs entre paires d'observations. En particulier, plus le nombre de voisins communs imposé est important, plus la matrice sera parcimonieuse, i.e. remplie de zéros, ce qui permet, à mesure que le seuil de parcimonie augmente, de retirer les valeurs extrêmes et les données bruitées. Cette collection de matrices parcimonieuses est ordonnée selon un algorithme de sériation de type forward, nommé PB-Clus, afin d'obtenir des représentations par blocs des matrices sériées. Ces deux méthodes ont été validées sur une application biologique basée sur la détection du cancer du col de l'utérus.
|
189 |
Quelques Contributions à la Statistique des Processus, à la Théorie des Champs Aléatoires et à la Statistique des Champs AléatoiresDachian, Serguei 12 December 2012 (has links) (PDF)
Ce mémoire d'Habilitation à Diriger des Recherches est organisé en deux tomes. Le Tome I a pour but de présenter les travaux de recherche effectués durant ma carrière d'enseignant-chercheur (quatorze articles publiés dans des revues internationales avec comité de lecture). Les textes intégraux de ces articles sont réunis dans le Tome II.
|
190 |
Factorisation Matricielle, Application à la Recommandation Personnalisée de PréférencesDelporte, Julien 03 February 2014 (has links) (PDF)
Cette thèse s'articule autour des problèmes d'optimisation à grande échelle, et plus particulièrement autour des méthodes de factorisation matricielle sur des problèmes de grandes tailles. L'objectif des méthodes de factorisation de grandes matrices est d'extraire des variables latentes qui permettent d'expliquer les données dans un espace de dimension réduite. Nous nous sommes intéressés au domaine d'application de la recommandation et plus particulièrement au problème de prédiction de préférences d'utilisateurs. Dans une contribution nous nous sommes intéressés à l'application de méthodes de factorisation dan un environnement de recommandation contextuelle et notamment dans un contexte social. Dans une seconde contribution, nous nous sommes intéressés au problème de sélection de modèle pour la factorisation où l'on cherche à déterminer de façon automatique le rang de la factorisation par estimation de risque.
|
Page generated in 0.0288 seconds