• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1358
  • 593
  • 154
  • 4
  • 2
  • 1
  • Tagged with
  • 2081
  • 765
  • 461
  • 296
  • 288
  • 236
  • 225
  • 200
  • 199
  • 195
  • 195
  • 183
  • 159
  • 153
  • 150
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Conversion de séquences de jeu en diagrammes états-transitions

Rugamba, Francis 19 April 2018 (has links)
De nos jours, le développement des personnages de jeux est devenu une tâche dif- ficile en raison de la complexité toujours grandissante des jeux vidéos actuels. Pour diminuer la complexité liée au développement de ces personnages, certaines approches sont applicables et consistent à utiliser des techniques d'intelligence artificielle. Dans ce travail, nous proposons d'utiliser des diagrammes états-transitions pour activer un personnage de jeu vidéo. Nous étudions les moyens de construire des diagrammes états-transitions et plus spécifiquement comment les structurer à partir des séquences de jeux. Les performances des diagrammes construits sont évaluées et nous analysons les possibilités d'améliorer les rendements obtenus. Dans nos expérimentations, nous utilisons le jeu de poursuite dénommé Pacman. Pacman constitue un banc d'essai idéal car il présente un environnement dynamique et séquentiel et nécessite une prise de décision en temps réel. Dans ce travail nous tentons d'accomplir les tâches suivantes : Acquérir des séquences de jeux à travers l'utilisation de l'apprentissage par la démonstration. Structurer des diagrammes états-transitions à partir des séquences de jeux. Analyser la possibilité d'améliorer les performances des diagrammes états-transitions par l'utilisation des techniques de raisonnement à base de cas et des éléments de la théorie de l'information. / Nowadays, developing game characters has become a difficult task because of the increasing complexity of actual video games. To reduce the complexity of developing those characters, some approaches exist and consist of using artificial intelligence techniques. In this project, we propose using state machines to activate a video game character. We learn the means to build state machines and more specifically how to structure them from game sequences. The performance of those state machines is evaluated and we analyze the possibility of improving the results. In our experimentations, we use the pursuit game called Pacman. Pacman constitute an ideal testbed because it others a dynamic and sequential environment and it calls for real time decision making. In this work we are trying to accomplish the following tasks : Acquire game sequences through usage of learning from demonstration. Structure the state machines from game sequences. Analyze the possibility of improving the performances of the state machines by using case-based reasoning techniques and elements of information theory.
62

Tests d'association génétique pour des durées de vie en grappes

Leclerc, Martin 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / Les outils statistiques développés dans cette thèse par articles visent à détecter de nouvelles associations entre des variants génétiques et des données de survie en grappes. Le développement méthodologique en analyse des durées de vie est aujourd'hui ininterrompu avec la prolifération des tests d'association génétique et, de façon ultime, de la médecine personnalisée qui est centrée sur la prévention de la maladie et la prolongation de la vie. Dans le premier article, le problème suivant est traité : tester l'égalité de fonctions de survie en présence d'un biais de sélection et de corrélation intra-grappe lorsque l'hypothèse des risques proportionnels n'est pas valide. Le nouveau test est basé sur une statistique de type Cramérvon Mises. La valeur de p est estimée en utilisant une procédure novatrice de bootstrap semiparamétrique qui implique de générer des observations corrélées selon un devis non-aléatoire. Pour des scénarios de simulations présentant un écart vis-à-vis l'hypothèse nulle avec courbes de survie qui se croisent, la statistique de Cramer-von Mises offre de meilleurs résultats que la statistique de Wald du modèle de Cox à risques proportionnels pondéré. Le nouveau test a été utilisé pour analyser l'association entre un polymorphisme nucléotidique (SNP) candidat et le risque de cancer du sein chez des femmes porteuses d'une mutation sur le gène suppresseur de tumeur BRCA2. Un test d'association sequence kernel (SKAT) pour détecter l'association entre un ensemble de SNPs et des durées de vie en grappes provenant d'études familiales a été développé dans le deuxième article. La statistique de test proposée utilise la matrice de parenté de l'échantillon pour modéliser la corrélation intra-famille résiduelle entre les durées de vie via une copule gaussienne. La procédure de test fait appel à l'imputation multiple pour estimer la contribution des variables réponses de survie censurées à la statistique du score, laquelle est un mélange de distributions du khi-carré. Les résultats de simulations indiquent que le nouveau test du score de type noyau ajusté pour la parenté contrôle de façon adéquate le risque d'erreur de type I. Le nouveau test a été appliqué à un ensemble de SNPs du locus TERT. Le troisième article vise à présenter le progiciel R gyriq, lequel implante une version bonifiée du test d'association génétique développé dans le deuxième article. La matrice noyau identical-by-state (IBS) pondérée a été ajoutée, les tests d'association génétique actuellement disponibles pour des variables réponses d'âge d'apparition ont été brièvement revus de pair avec les logiciels les accompagnant, l'implantation du progiciel a été décrite et illustrée par des exemples. / The statistical tools developed in this manuscript-based thesis aim at detecting new associations between genetic variants and clustered survival data. Methodological development in lifetime data analysis is today ongoing with the proliferation of genetic association testing and, ultimately, personalized medicine which focuses on preventing disease and prolonging life. In the first paper, the following problem is considered: testing the equality of survival functions in the presence of selection bias and intracluster correlation when the assumption of proportional hazards does not hold. The new proposed test is based on a Cramér-von Mises type statistic. The p-value is approximated using an innovative semiparametric bootstrap procedure which implies generating correlated observations according to a non-random design. For simulation scenarios of departures from the null hypothesis with crossing survival curves, the Cramer-von Mises statistic clearly outperformed the Wald statistic from the weighted Cox proportional hazards model. The new test was used to analyse the association between a candidate single nucleotide polymorphism (SNP) and breast cancer risk in women carrying a mutation in the BRCA2 tumor suppressor gene. A sequence kernel association test (SKAT) to detect the association between a set of genetic variants and clustered survival outcomes from family studies is developed in the second manuscript. The proposed statistic uses the kinship matrix of the sample to model the residual intra-family correlation between survival outcomes via a Gaussian copula. The test procedure relies on multiple imputation to estimate the contribution of the censored survival outcomes to the score statistic which is a mixture of chi-square distributions. Simulation results show that the new kinship-adjusted kernel score test controls adequately for the type I error rate. The new test was applied to a set of SNPs from the TERT locus. The third manuscript aims at presenting the R package gyriq which implements an enhanced version of the genetic association test developed in the second manuscript. The weighted identical-by-state (IBS) kernel matrix is added, genetic association tests and accompanying software currently available for age-at-onset outcomes are briefly reviewed, the implementation of the package is described, and illustrated through examples.
63

Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique

ROLAND, Christophe 27 June 2005 (has links) (PDF)
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
64

Méthodes d'accélération de la convergence en analyse numérique

Brezinski, Claude 26 April 1971 (has links) (PDF)
.
65

Développement de méthodes de domaines fictifs au second ordre

Etcheverlepo, Adrien 30 January 2013 (has links) (PDF)
La simulation d'écoulements dans des géométries complexes nécessite la création de maillages parfois difficile à réaliser. La méthode de pénalisation proposée dans ce travail permet de simplifier cette étape. En effet, la résolution des équations qui gouvernent l'écoulement se fait sur un maillage plus simple mais non-adapté à la géométrie du problème. Les conditions aux limites sur les parties du domaine physique immergées dans le maillage sont prises en compte à travers l'ajout d'un terme de pénalisation dans les équations. Nous nous sommes intéressés à l'approximation du terme de pénalisation pour une discrétisation par volumes finis sur maillages décalés et colocatifs. Les cas tests de vérification réalisés attestent d'un ordre de convergence spatial égal à 2 pour la méthode de pénalisation appliquée à la résolution d'une équation de type Poisson ou des équations de Navier-Stokes. Enfin, on présente les résultats obtenus pour la simulation d'écoulements turbulents autour d'un cylindre à Re=3900 et à l'intérieur d'une partie d'un assemblage combustible à Re=9500.
66

Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations

Sedki, Mohammed 31 October 2012 (has links) (PDF)
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
67

Développement de méthodes de domaines fictifs au second ordre / Development of a second order penalty method

Etcheverlepo, Adrien 30 January 2013 (has links)
La simulation d'écoulements dans des géométries complexes nécessite la création de maillages parfois difficile à réaliser. La méthode de pénalisation proposée dans ce travail permet de simplifier cette étape. En effet, la résolution des équations qui gouvernent l'écoulement se fait sur un maillage plus simple mais non-adapté à la géométrie du problème. Les conditions aux limites sur les parties du domaine physique immergées dans le maillage sont prises en compte à travers l'ajout d'un terme de pénalisation dans les équations. Nous nous sommes intéressés à l'approximation du terme de pénalisation pour une discrétisation par volumes finis sur maillages décalés et colocatifs. Les cas tests de vérification réalisés attestent d'un ordre de convergence spatial égal à 2 pour la méthode de pénalisation appliquée à la résolution d'une équation de type Poisson ou des équations de Navier-Stokes. Enfin, on présente les résultats obtenus pour la simulation d'écoulements turbulents autour d'un cylindre à Re=3900 et à l'intérieur d'une partie d'un assemblage combustible à Re=9500. / The simulations of fluid flows in complex geometries require the generation of body-fitted meshes which are difficult to create.The penalty method developed in this work is useful to simplify the mesh generation task.The governing equations of fluid flow are discretized using a finite volume method on an unfitted mesh.The immersed boundary conditions are taken into account through a penalty term added to the governing equations.We are interested in the approximation of the penalty term using a finite volume discretization with collocated and staggered grid.The penalty method is second-order spatial accurate for Poisson and Navier-Stokes equations.Finally, simulations of turbulent flows around a cylinder at Re=3900 and turbulent motions in a rod bundle at Re=9500 are performed.
68

L'effet de lissage induit par la répartition géographique de groupes éoliens

Michaud, René 12 April 2018 (has links)
L'introduction de production éolienne dans un réseau électrique, de par la nature stochastique du vent, impose au gestionnaire un investissement supplémentaire pour maintenir les réserves en capacité et les infrastructures rattachées afin de balancer les fluctuations de la filière éolienne. L'effet de lissage qu'induit la répartition des éoliennes sur un grand territoire, par son apport au crédit en capacité de la filière, peut être un facteur important de réduction de cet investissement. À l'aide de données recueillies au Québec, ce travail démontre la présence de lissage induit par la répartition des stations anémométriques et le quantifie, en termes de réduction de la variabilité des séries temporelles en vitesse du vent et en puissance. / When introducing wind power into an electricity grid, because of the stochastic nature of wind, investments must be made to insure capacity reserves and related infrastructures are available to balance the wind production fluctuations. Smoothing effect of geographically dispersed wind production may help minimize these investments by reducing variability of the wind production thus contributing to the wind power capacity credit. Based on measured wind speed data from Québec province, this study shows the existence of a smoothing effect induced by geographical dispersion of the measurement stations and quantifies it by means of reduced variability of the wind speed and power time series.
69

Méthodes d'amas quantiques à température finie appliquées au modèle de Hubbard

Plouffe, Dany January 2011 (has links)
Depuis leur découverte dans les années 80, les supraconducteurs à haute température critique ont suscité beaucoup d'intérêt en physique du solide. Comprendre l'origine des phases observées dans ces matériaux, telle la supraconductivité, est l'un des grands défis de la physique théorique du solide des 25 dernières années. L'un des mécanismes pressentis pour expliquer ces phénomènes est la forte interaction électron-électron. Le modèle de Hubbard est l'un des modèles les plus simples pour tenir compte de ces interactions. Malgré la simplicité apparente de ce modèle, certaines de ses caractéristiques, dont son diagramme de phase, ne sont toujours pas bien établies, et ce malgré plusieurs avancements théoriques dans les dernières années. Cette étude se consacre à faire une analyse de méthodes numériques permettant de calculer diverses propriétés du modèle de Hubbard en fonction de la température. Nous décrivons des méthodes (la VCA et la CPT) qui permettent de calculer approximativement la fonction de Green à température finie sur un système infini à partir de la fonction de Green calculée sur un amas de taille finie. Pour calculer ces fonctions de Green, nous allons utiliser des méthodes permettant de réduire considérablement les efforts numériques nécessaires pour les calculs des moyennes thermodynamiques, en réduisant considérablement l'espace des états à considérer dans ces moyennes. Bien que cette étude vise d'abord à développer des méthodes d'amas pour résoudre le modèle de Hubbard à température finie de façon générale ainsi qu'à étudier les propriétés de base de ce modèle, nous allons l'appliquer à des conditions qui s'approchent de supraconducteurs à haute température critique. Les méthodes présentées dans cette étude permettent de tracer un diagramme de phase pour l'antiferromagnétisme et la supraconductivité qui présentent plusieurs similarités avec celui des supraconducteurs à haute température.
70

Mixed-Hybrid Discretization Methods for the Linear Transport Equation

Serge, Van Criekingen 18 June 2004 (has links) (PDF)
The linear Boltzmann equation describes neutron transport in nuclear systems. We consider discretization methods for the time-independent mono-energetic transport equation, and focus on mixed-hybrid primal and dual formulations obtained through an even- and odd-parity flux decomposition. A finite element technique discretizes the spatial variable, and a PN spherical harmonic technique discretizes the angular variable. Mixed-hybrid methods combine attractive features of both mixed and hybrid methods, namely the simultaneous approximation of even- and odd-parity fluxes (thus of flux and current) and the use of Lagrange multipliers to enforce interface regularity constraints. While their study provides insight into purely mixed and purely hybrid methods, mixed-hybrid methods can also be used as such. Mixed and mixed-hybrid methods, so far restricted to diffusion theory, are here generalized to higher order angular approximations. We first adapt existing second-order elliptic mixed-hybrid theory to the lowest-order spherical harmonic approximation, i.e., the P1 approximation. Then, we introduce a mathematical setting and provide well-posedness proofs for the general PN spherical harmonic approximation. Well-posedness theory in the transport case has thus far been restricted to the first-order (integro-differential) form of the transport equation. Proceeding from P1 to PN , the primal/dual distinction related to the spatial variable is supplemented by an even-/odd-order PN distinction in the expansion of the angular variable. The spatial rank condition is supplemented by an angular rank condition satisfied using interface angular expansions corresponding to the Rumyantsev conditions, for which we establish a new derivation using the Wigner coefficients. Demonstration of the practical use of even-order PN approximations is in itself a significant achievement. Our numerical results exhibit an interesting enclosing property when both even- and odd-order PN approximations are employed.

Page generated in 0.0295 seconds