• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 33
  • 11
  • Tagged with
  • 118
  • 43
  • 22
  • 20
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contributions à la prévision statistique

Faugeras, Olivier P. 28 November 2008 (has links) (PDF)
Dans une première partie, on s'intéresse à la prévision d'une valeur future, non observée, d'un processus stochastique dont la loi est indexée par un paramètre inconnu, à partir des données passées de sa trajectoire. Plus précisément, on montre sur un modèle additif de régression comment on peut découpler, par un dispositif de séparation temporelle, le problème d'estimation du paramètre inconnu de celui du calcul du prédicteur probabiliste, pour obtenir un prédicteur statistique dont on étudie les propriétés de convergence asymptotiques.<br>Dans une seconde partie, on cherche à prédire, au sens d'expliquer, une variable Y par une variable X. Pour cela, on s'intéresse à l'estimation de la densité conditionnelle de Y sachant X = x, à partir d'un n-échantillon de couples de variables (X_i; Y_i). On propose un nouvel estimateur de forme produit, basé sur la transformation de quantile et la fonction de copule, dont on étudie les propriétés de convergence et de normalité asymptotiques. On compare l'estimateur proposé aux estimateurs concurrents de forme quotient et on en propose des modifications et des extensions. Enfin, on étudie les propriétés des prédicteurs associés à cet estimateur, à savoir le mode, la moyenne et les ensembles de niveau conditionnels. Des applications, liens et perspectives sont aussi esquissées.
52

POLITIQUES DE MAINTENANCE CONDITIONNELLE POUR UN SYSTEME A DEGRADATION CONTINUE SOUMIS A UN ENVIRONNEMENT STRESSANT

Deloux, Estelle 07 October 2008 (has links) (PDF)
L'un des challenges de l'optimisation de la maintenance est la production de modèles décisionnels conjuguant performance au niveau stratégique et au niveau opérationnel. Une hypothèse classique est de considérer que le niveau de dégradation du système peut être modélisé par un processus stochastique particulier caractérisé en régime stationnaire sans tenir compte des effets de l'environnement d'exploitation du système. Cette hypothèse peut être vue comme un des facteurs entraînant des écarts entre les performances attendues et celles mesurées. Par contre, de nombreux travaux sont développés dans le cadre de la fiabilité pour l'intégration de l'impact de l'environnement. L'objectif de ce manuscrit est de développer des outils d'aide à la décision de maintenance pour des systèmes à dégradation graduelle évoluant dans un environnement aléatoire stressant. Nous proposons différentes modélisations de l'environnement et de son impact sachant qu'il peut influencer soit la défaillance du système, soit le processus de dégradation. Nous explicitons les relations mutuelles entre l'environnement et le processus de dégradation et nous construisons différentes politiques de maintenance adaptatives qui se basent sur l'état de dégradation du système mais également sur l'évolution de l'environnement. De plus, les politiques proposées permettent de se baser soit uniquement sur une connaissance a priori du système, soit d'intégrer l'information disponible en ligne concernant l'environnement. Nous chercherons dans ce manuscrit à proposer de nouvelles approches de maintenance combinant performances théoriques attendues d'un côté et réalité et pragmatisme opérationnels d'un autre.
53

Génération d'états non-classiques et intrication en variables continues à l'aide d'un oscillateur paramétrique optique

Laurat, Julien 27 September 2004 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique et expérimentale de différents niveaux de corrélations quantiques en variables continues, mettant en jeu une ou deux quadratures. Dans cet objectif, un oscillateur paramétrique optique de type II, où signal et complémentaire sont émis suivant des polarisations orthogonales, a été développé. Une lame biréfringente introduite à l'intérieur de la cavité induit un couplage des deux modes et permet un fonctionnement dégénéré en fréquence. <br /><br />Un protocole original de préparation conditionnelle d'un état non-classique, de distribution statistique sub-Poissonienne, a été étudié théoriquement et mis en oeuvre expérimentalement. Il repose sur les corrélations d'intensité des faisceaux émis au-dessus du seuil en l'absence de lame. Une compression de 9.5 dB du bruit sur la différence d'intensité a été obtenue.<br /><br />En présence de la lame, les faisceaux émis sont dégénérés en fréquence et en principe intriqués. La dégénérescence a permis la première mesure des anti-corrélations de phase au-dessus du seuil. Malgré un excès de bruit qui reste à expliquer, ce résultat ouvre une voie intéressante pour la génération directe d'états intriqués intenses. L'oscillateur paramétrique optique, avec ou sans lame, peut également fonctionner au-dessous du seuil et générer des faisceaux fortement intriqués. L'intrication obtenue, stable pendant plusieurs heures, est la plus forte observée à ce jour et elle est préservée jusqu'à des fréquences de bruit très basses. En présence de la lame, les propriétés quantiques originales du système sont également détaillées et une opération passive, réalisée à l'aide de lames biréfringentes, est mise en évidence pour optimiser l'intrication. L'action d'opérations passives sur un état à deux modes est discutée théoriquement.
54

Un test d'adéquation global pour la fonction de répartition conditionnelle

FERRIGNO, Sandie 17 December 2004 (has links) (PDF)
Soient X et Y , deux variables aléatoires. De nombreuses procédures statistiques permettent d'ajuster un modèle à ces données dans le but d'expliquer Y à partir de X. La mise en place d'un tel modèle fait généralement appel à diverses hypothèses que <br />l'on doit valider pour justifier son utilisation. Dans ce travail, on propose une approche globale où toutes les hypothèses faites pour asseoir ce modèle sont testées simultanément. <br />Plus précisément, on construit un test basé sur une quantité qui permet de canaliser toute l'information liant X à Y : la fonction de répartition conditionnelle de Y sachant (X = x) définie par F(y|x)=P(Y<=y|X=x). Notre test compare la valeur prise par l'estimateur polynômial local de F(y|x) à une estimation paramétrique du modèle supposé et rejette sa <br />validité si la distance entre ces deux quantités est trop grande. Dans un premier temps, on considère le cas où la fonction de répartition supposée est entièrement spécifiée et, dans <br />ce contexte, on établit le comportement asymptotique du test. Dans la deuxième partie du travail, on généralise ce résultat au cas plus courant en pratique où le modèle supposé contient un certain nombre de paramètres inconnus. On étudie ensuite la puissance locale du test en déterminant son comportement asymptotique local sous des suites d'hypothèses contigües. Enfin, on propose un critère de choix de la fenêtre d'ajustement qui intervient lors de l'étape d'estimation polynômiale locale de la fonction de répartition conditionnelle.
55

Étude fonctionnelle de la sous-unité régulatrice de la protéine kinase CK2 dans les cellules souches embryonnaires murines : survie cellulaire, oligodendrogenèse et cancérogenèse.

Ziercher, Léa 11 October 2007 (has links) (PDF)
La protéine kinase CK2 est un complexe moléculaire dynamique composé de 2 sous-unités catalytiques α et d'un dimère de sous-unités régulatrices β. La structure cristallographique du dimère de CK2β suggère qu'il représente une plate-forme moléculaire, plaçant la protéine au cœur d'un réseau de voies de signalisation.<br />L'invalidation du gène CK2β chez la souris conduit à un défaut de viabilité des cellules souches embryonnaires (ES). Nous avons pu étudier la fonction de différents domaines fonctionnels in vitro dans un modèle cellulaire reposant sur une stratégie d'invalidation conditionnelle du gène CK2β dans les cellules ES murines. L'abolition de l'expression du gène endogène est létale pour les cellules ES et leur viabilité est restaurée par l'expression exogène de la protéine CK2β sauvage. Ce modèle nous permet d'étudier l'implication de divers domaines de CK2β dans la survie, la prolifération et la différenciation des cellules souches embryonnaires, en remplaçant la protéine endogène par diverses formes mutées de la protéine. <br />Parallèlement, l'invalidation conditionnelle du gène chez la souris ciblée dans les précurseurs neuraux a montré que CK2β est un élément clef dans les voies de signalisation qui contrôlent l'oligodendrogenèse. La différenciation des cellules ES nullizygotes exprimant la protéine exogène sauvage nous a permis de montrer que celle-ci restaure la lignée oligodendrocytaire. Nous avons aussi montré que certains domaines de CK2β, impliqués dans la fonction régulatrice du dimère, sont des déterminants structuraux cruciaux pour la prolifération des cellules souches neurales et leur progression dans la lignée oligodendrocytaire.
56

Méthodologie pour l'analyse et la commande des systèmes à retards

Di Loreto, Michaël 16 November 2006 (has links) (PDF)
Cette thèse traite de méthodologie pour l'analyse et la commande de systèmes linéaires à retards. On s'intéresse plus particulièrement à trois techniques complémentaires. La première est l'approche géométrique. Les systèmes linéaires à retards peuvent se modéliser par un quadruplet de matrices à coefficients sur un anneau. L'approche géométrique consiste alors à étudier un système avec les propriétés des modules de cet anneau. Dans cette partie, on développe une analyse exhaustive des notions d'invariance de modules, en vue d'applications en commande. Des relations logiques entre différentes formes d'invariance contrôlée et d'invariance conditionnelle sont établies. La deuxième approche étudiée dans cette thèse est algébrique. Pour celle-ci, l'utilisation de pseudo-polynômes, qui sont des opérateurs faisant appel à un nombre fini de dérivateurs, de retards ponctuels et distribués, se révèle fondamentale. On utilise plus précisèment l'anneau des fractions propres et stables de pseudo-polynômes pour résoudre le problème de stabilisation d'un système. Ce problème débouche sur une paramétrisation des compensateurs stabilisants et des matrices de transfert en boucle fermée. On étudie alors divers problèmes de commande, comme le rejet de perturbation, l'atténuation de perturbation, la poursuite de modèle exacte ou approchée, ou la commande optimale au sens L1. Enfin, la troisième et dernière approche est le calcul numérique. Dans cette partie, on utilise le calcul par intervalles pour résoudre des problèmes numériques difficiles, comme la stabilité robuste, la stabilisation, ou encore le respect d'un gabarit de performances et de robustesse.
57

Modèles markoviens et extensions pour la classification de données complexes

Blanchet, Juliette 10 October 2007 (has links) (PDF)
Nous abordons le problème de la classification d'individus à partir d'observations dites " complexes " en ce sens qu'elles ne vérifient pas certaines des hypothèses simplificatrices classiquement adoptées. Dans ce travail, les individus à classer sont supposés dépendants les uns des autres. L'approche adoptée est une approche probabiliste fondée sur une modélisation markovienne. Trois problèmes de classification sont abordés.<br />Le premier concerne la classification de données lorsque celles-ci sont de grande dimension. Pour un tel problème, nous adoptons un modèle markovien gaussien non diagonal tirant partie du fait que la plupart des observations de grande dimension vivent en réalité dans des sous-espaces propres à chacune des classes et dont les dimensions intrinsèques sont faibles. De ce fait, le nombre de paramètres libres du modèle reste raisonnable.<br />Le deuxième point abordé s'attache à relâcher l'hypothèse simplificatrice de bruit indépendant unimodal, et en particulier gaussien. Nous considérons pour cela le modèle récent de champ de Markov triplet et proposons une nouvelle famille de Markov triplet adaptée au cadre d'une classification supervisée. Nous illustrons la flexibilité et les performances de nos modèles sur une application à la reconnaissance d'images réelles de textures.<br />Enfin, nous nous intéressons au problème de la classification d'observations dites incomplètes, c'est-à-dire pour lesquelles certaines valeurs sont manquantes. Nous développons pour cela une méthode markovienne ne nécessitant pas le remplacement préalable des observations manquantes. Nous présentons une application de cette méthodologie à un problème réel de classification de gènes.
58

La métrique de la juste peine : une analyse des décisions de justice prises par les acteurs judiciaires et le public

Leclerc, Chloé 04 1900 (has links)
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix. / This thesis neglects the analysis of external influences, such as biases and errors, which may interfere in court judgments and propose that when facing a normative dilemma (What is the just decision?), individuals are driven by a concern for justice. This concern has not been properly scrutinized. When studying legal decisions, we note that a large proportion of all judgments and evaluations made by interviewed citizens and judicial actors are coherent and moderated, which demonstrates a concern for justice and equity. The results of the thesis are based on a sentencing survey conducted among citizens (n=297) and criminal justice professionals (n=235) who had to adjudicate upon three detailed case studies and specific sentencing questions. The thesis examines the process of determining the just sanction and is concerned with three types of judgments. The first chapter explores the quality of different penal severity scales that can be used to punish a criminal convicted of a crime. Results indicate that citizens, as well as criminal justice professionals, have different ways of conceptualizing penal severity, and that some of these views are more coherent and more reasonable than others. This chapter shows that one way of assessing penal metrics quality is to look at the exchange rates among qualitatively different sanctions (months of prison, years of probation, hours of community work and dollar amount of fines). The second chapter examines the sentencing choices. Two important judicial criteria are used to distinguish just sentences from unjust ones: 1) proportionality or internal consistency (are sentences always given in accordance to crime seriousness?); and 2) moderation or external consistency (is the sentence able to merge opposite points of views?). Both criteria are important in reducing a portion of uncertainty that is intrinsic to the sentencing dilemma. Indeed the search for the just punishment and strategies for uncertainty reduction are intimately connected. The third chapter takes into account the fact that sentences are not fully determined at the judicial level. This is especially the case for prison sentences since conditional release mechanisms drastically shorten the time actually spent behind bars. We attempt to understand the differential propensity among judges, crown and defense attorneys and probation officers to anticipate the likely impact of conditional release in determining the presumptive duration of the court sentence. Some court players will incorporate parole outcomes in determining their prison sentence while others refuse to do so. The chapter examines the reasons why they do so and also identifies under what conditions anticipation of parole outcomes are more likely
59

Développement d'immunothérapies du carcinome hépatocellulaire et de l'infection par le virus de l'hépatite C

Leboeuf, Céline 05 March 2012 (has links) (PDF)
Le virus de l'hépatite C (VHC) est une des causes majeures de carcinome hépatocellulaire (CHC), dont les traitements ont une efficacité modéré. La transplantation hépatique (TH) est l'option thérapeutique de choix mais est limitée, chez les patients chroniquement infectés par le VHC, par une réinfection systématique du greffon. Nous proposons d'utiliser des lymphocytes génétiquement modifiés (LGM) issus de donneurs sains qui ont fait leurs preuves pour le traitement d'hémopathies malignes et qui,exprimant un gène suicide, peuvent être éliminés en cas d'effets secondaires. Nous montrons maintenant que ces LGM présentent d'une part une activité anti-tumorale vis-à-vis du CHC, et d'autre part un effet anti-viral envers le VHC. L'objectif est la création d'une banque de LGM allogéniques prêts-à-l'emploi, avec des avantages en termes de coût, de logistique et de disponibilité immédiate par rapport aux approches classiques d'immunothérapies, autologues pour la plupart. Parallèlement, nous avons étudié in vivo l'effet anti-viral d'un anticorps monoclonal anti-claudin-1 dirigé contre un co-récepteur duVHC et inhibant l'entrée du VHC dans les hépatocytes humains. Grâce à un modèle d'infection par VHC de souris présentant un foie chimérique humanisé, nous montrons que cet anticorps permet de prévenir efficacement l'infection par le VHC. Nos résultats apportent les preuves de concept de l'utilisation de deux produits, anticorps anti-claudin-1 et LGM, pour la prévention de la réinfection du greffon hépatique par le VHC, les LGM pouvant également être envisagés en association avec les thérapies actuelles du CHC.
60

A Sensitivity Analysis of Cross-Country Growth Regressions: Is 1990-2010 Different?

Kiwan, Rami 12 1900 (has links)
Cet article étudie la sensibilité des estimations de certaines variables explicatives de la croissance économique dans des régressions en coupe transversale sur un ensemble de pays. Il applique un modèle modifié de l’analyse de sensibilité de Leamer (1983, 1985). Mes résultats confirment la conclusion de Levine and Renelt (1992), toutefois, je montre que plus de variables sont solidement corrélées à la croissance économique. Entre 1990-2010, je trouve que huit sur vingt cinq variables ont des coefficients significatifs et sont solidement corrélées à la croissance de long terme, notamment, les parts de l’investissement et des dépenses étatiques dans le PIB, la primauté du droit et une variable dichotomique pour les pays subsahariens. Je trouve aussi une preuve empirique solide de l'hypothèse de la convergence conditionnelle, ce qui est cohérent avec le modèle de croissance néoclassique. / This paper examines the robustness of explanatory variables in cross-country growth regressions. It employs a variant of Leamer’s (1983, 1985) extreme-bounds analysis. My results confirm Levine and Renelt’s (1992) conclusion, but identify more variables to be robustly correlated with economic growth. Of 25 explanatory variables tested, I find 8 to be significantly and robustly correlated with long-term growth over the 1990-2010 period. The strongest evidence is for the investment ratio, government consumption share in GDP, the rule of law, and the Sub-Saharan dummy. I also find strong empirical evidence for conditional convergence, which is consistent with the neoclassical growth model.

Page generated in 0.1074 seconds