• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 246
  • 139
  • 92
  • 23
  • 2
  • 1
  • 1
  • Tagged with
  • 502
  • 151
  • 92
  • 54
  • 53
  • 51
  • 51
  • 50
  • 49
  • 45
  • 45
  • 43
  • 38
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

L'anneau de cohomologie des résolutions crépantes de certaines singularités-quotient

Garino, Sébastien 25 June 2007 (has links) (PDF)
Le quotient géométrique d'une variété lisse par l'action d'un groupe fini préservant le volume est une variété singulière. La correspondance de McKay relie la géométrie des résolutions crépantes du quotient et la géométrie de l'action sur la variété lisse. Sous certaines hypothèses, le schéma de Hilbert équivariant de la variété lisse est une résolution crépante. Nous interprétons ce schéma en terme de grassmannienne d'algèbres équivariante, afin d'en déduire une description explicite. D'après la conjecture de Ruan, modulo une déformation quantique, l'anneau de cohomologie d'une résolution crépante est isomorphe à l'anneau de cohomologie orbifold du quotient. Pour le quotient d'une variété de dimension trois locale (espace vectoriel avec action linéaire) ou compacte, nous calculons l'anneau de cohomologie des résolutions crépantes. Dans le cas local, un exemple montre la nécessité de la déformation quantique dans la conjecture. Dans le cas compact, l'analogie entre les deux anneaux conforte la conjecture.
22

Evaluation formative du savoir-faire des apprenants à l'aide d'algorithmes de classification : application à l'électronique numérique

Tanana, Mariam 19 November 2009 (has links) (PDF)
Lorsqu'un enseignant veut évaluer le savoir-faire des apprenants à l'aide d'un logiciel, il utilise souvent les systèmes Tutoriels Intelligents (STI). Or, les STI sont difficiles à développer et destinés à un domaine pédagogique très ciblé. Depuis plusieurs années, l'utilisation d'algorithmes de classification par apprentissage supervisé a été proposée pour évaluer le savoir des apprenants. Notre hypothèse est que ces mêmes algorithmes vont aussi nous permettre d'évaluer leur savoir-faire. Notre domaine d'application étant l'électronique numérique, nous proposons une mesure de similarité entre schémas électroniques et une bas d'apprentissage générée automatiquement. cette base d'apprentissage est composées de schémas électroniques pédagogiquement étiquetés "bons" ou "mauvais" avec des informations concernant le degré de simplification des erreurs commises. Finalement, l'utilisation d'un algorithme de classification simple (les k plus proches voisins) nous a permis de faire une évaluation des schémas électroniques dans la majorité des cas.
23

Le concept de soi : voie d’épanouissement ou d’emprisonnement du capital social?

Richer, Céline 03 May 2012 (has links)
La présente étude vise à mieux comprendre quelle dynamique corrélationnelle s’inscrit entre le concept de soi d’un individu et son capital social. La théorie de la vérification de soi (Swann, 1987) sous-tend que les individus ont tendance à s’entourer de gens qui confirment leur vision d’eux même, dans le but de pouvoir prédire et contrôler leur environnement. On peut alors se demander si la personne dont le soi est tapissé de représentations négatives a précisément la capacité de se construire un réseau social qui constituera véritablement un « capital » relationnel pour elle. Un design méthodologique corrélationnel a été utilisé afin d’évaluer les liens de concomitance entre les indicateurs des construits « concept de soi » et « capital social. » Les résultats d’analyses statistiques corrélationnelles entre les indicateurs confirment, en grande partie, l’hypothèse de départ, à savoir que plus une personne nourrit un concept de soi sain, plus elle génère un capital social riche. Les implications pratiques et théoriques sont discutées.
24

Le concept de soi : voie d’épanouissement ou d’emprisonnement du capital social?

Richer, Céline January 2012 (has links)
La présente étude vise à mieux comprendre quelle dynamique corrélationnelle s’inscrit entre le concept de soi d’un individu et son capital social. La théorie de la vérification de soi (Swann, 1987) sous-tend que les individus ont tendance à s’entourer de gens qui confirment leur vision d’eux même, dans le but de pouvoir prédire et contrôler leur environnement. On peut alors se demander si la personne dont le soi est tapissé de représentations négatives a précisément la capacité de se construire un réseau social qui constituera véritablement un « capital » relationnel pour elle. Un design méthodologique corrélationnel a été utilisé afin d’évaluer les liens de concomitance entre les indicateurs des construits « concept de soi » et « capital social. » Les résultats d’analyses statistiques corrélationnelles entre les indicateurs confirment, en grande partie, l’hypothèse de départ, à savoir que plus une personne nourrit un concept de soi sain, plus elle génère un capital social riche. Les implications pratiques et théoriques sont discutées.
25

Pédagogie et eutonie : conceptualisation d'un vécu corporel par une expérience d'écriture

Tardif, Hélène 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2016
26

La prise de conscience du corps et le processus de développement de la personne

Petit, Jocelyne 25 April 2018 (has links)
La présente recherche s'intéresse au phénomène de la prise de conscience du corps dans le processus de développement de la personne. Le problème s'est d'abord posé de manière intuitive par l'observation d'expériences vécues auprès de personnes en développement. Les premières intuitions ont orienté vers la conception organique de l'éducation ouverte afin de comprendre les fondements d'une approche éducative préoccupée du développement intégral de la personne. Cependant, certaines questions importantes n'ont pas trouvé de réponse satisfaisante ni dans l'expérience vécue, ni dans la littérature de la psychologie humaniste explorée alors. Ces questions concernaient la dimension corporelle du processus de connaissance. Le premier chapitre relate les premiers pas du cheminement de recherches. Les questions, d'abord globales, se sont précisées pour engendrer trois questions spécifiques. La première interroge la condition interne expérienciée dans un moment de prise de conscience (corporelle). La seconde cherche à comprendre la structure de l'expérience de la prise de conscience corporelle. Enfin, la dernière questionne le type de connaissance à laquelle la personne accède dans un tel moment. L'objectif de cette recherche est de comprendre et de décrire le processus interne qui se ri épi ni p dans un moment où la personne est présente à l'expérience corporelle. Ce processus est nommé le mouvement organismique". Le deuxième chapitre présente la méthodologie de recherche qui s'inspire aussi de la conception organique de l'éducation. La recherche est envisagée comme une activité éducative ouverte, source de connaissance organismique (qui s'intègre à tout l'être). L'exploration du phénomène du mouvement organismique est avant tout expérientielle et inductive. Elle se réalise par une dialectique interactive entre des données expérientiels, tel les témoignages d'expériences vécues, et une réflexion méditative axée sur la recherche de concepts-clefs qui articulent la compréhension du phénomène. La pensée de certains auteurs vient contribuer à la réflexion en proposant des pistes et des intuitions d'une part, et en permettant, d'autre part, de situer la compréhension dans le champ de connaissance relié à la prise de conscience du corps et au processus de développement de la personne. Les troisième et sixième chapitres présentent les points de vue de penseurs consultés sur les questions posées à l'intérieur de la recherche. Les données expérientielles sont recueillies sous la forme de témoignages écrits relatant un moment de prise de conscience et sont complétées par une entrevue individuelle. Les témoignages individuels des douze personnes participantes sont décrits et analysés dans le quatrième chapitre de ce travail. L'analyse individuelle de chacun des témoignages fait ressortir des éléments perceptuels et apporte un premier éclairage face aux questions posées. Une discussion globale propose, dans le cinquième chapitre, la compréhension qui se dégage de l'analyse méditative de l'ensemble des données. Des réflexions sur la condition interne, la structure de l'expérience et la connaissance organismique sont soumises à la discussion. Le sixième chapitre effectue un retour dialectique à la littérature contemporaine pour confronter les réflexions issues de l'analyse aux réflexions posées par certains penseurs. C 'est ainsi que s'articule la compréhension du phénomène. D'une part, plusieurs approches corporelles sont apparues ces dernières années. Les conceptions du développement de la personne qu'elles sous-tendent ne sont pas toujours clairement énoncées et elles sont parfois contradictoires. L'observation de l'expérience vécue permettra de mieux se situer dans la discussion au sujet du processus de développement de la personne. D'autre part, il apparaît pertinent de poser de telles questions fondamentales au moment où le monde de l'éducation cherche sa direction. Plusieurs intervenants ont peine à saisir "le sens" de leur intervention, en ce temps où de nouvelles valeurs éducatives s'affirment, où de nouveaux programmes, de nouvelles approches, de nouvelles technologies sont suggérées. Il semble difficile de ne pas "perdre pied" dans cette vague qui a pris forme en éducation avec le renouveau pédagogique des années soixante. L'ouverture à l'expérience corporelle peut s'avérer déterminante dans le processus éducatif. L'objectif ultime de cette recherche est de proposer une vision unifiée du phénomène qui puisse éveiller une certaine résonance dans l'expérience subjective d'autres personnes. Celles-ci, à leur tour, pourront chercher à approfondir la compréhension proposée. / Québec Université Laval, Bibliothèque 2015
27

Adaptive Similarity of XML Data / Adaptive Similarity of XML Data

Jílková, Eva January 2014 (has links)
In the present work we explore application of XML schema mapping in conceptual modeling of XML schemas. We expand upon the previous efforts to map XML schemas to PIM schema via a decision tree. In this thesis more versatile method is implemented - the decision tree is trained from a large set of user- annotated mapping decision samples. Several variations of training that could improve the mapping results are proposed. The approach is evaluated in a wide range of experiments that show the advantages and disadvantages of the proposed variations of training. The work also contains a survey of different approaches to schema mapping and description of schema used in this work. Powered by TCPDF (www.tcpdf.org)
28

Etude de schémas numériques d'ordre élevé pour la simulation de dispersion de polluants dans des géométries complexes

Montagnier, Julien 12 July 2010 (has links) (PDF)
La prévention des risques industriels nécessite de simuler la dispersion turbulente de polluants. Cependant, les outils majoritairement utilisés à ce jour ne permettent pas de traiter les champs proches dans le cas de géométries complexes, et il est nécessaire d'utiliser les outils de CFD (“ Computational Fluid Dynamics ”) plus adaptés, mais plus coûteux. Afin de simuler les écoulements atmosphériques avec dispersion de polluants, les modèles CFD doivent modéliser correctement d'une part, les effets de flottabilité, et d'autre part les effets de la turbulence. Plusieurs approches existent, notamment dans la prise en compte des effets de flottabilité et la modélisation de la turbulence, et nécessitent des méthodes numériques adaptées aux spécificités mathématiques de chacune d'entre elles, ainsi que des schémas numériques précis pour ne pas polluer la modélisation. Une formulation d'ordre élevé en volumes finis, sur maillages non structurés, parallélisée, est proposée pour simuler les écoulements atmosphériques avec dispersion de polluants. L'utilisation de schémas d'ordre élevé doit permettre d'une part de réduire le nombre de cellules et diminuer les temps de simulation pour atteindre une précision donnée, et d'autre part de mieux contrôler la viscosité numérique des schémas en vue de simulations LES (Large Eddy Simulation), pour lesquelles la viscosité numérique des schémas peut masquer les effets de la modélisation. Deux schémas d'ordre élevé ont été étudiés et implémentés dans un solveur 3D Navier Stokes incompressible sur des maillages volumes finis non structurés. Nous avons développé un premier schéma d'ordre élevé, correspondant à un schéma Padé volumes finis, et nous avons étendu le schéma de reconstruction polynomiale de Carpentier (2000) aux écoulements incompressibles. Les propriétés numériques des différents schémas implémentés dans le même code de calcul sont étudiées sur différents cas tests bi-dimensionnels (calcul de flux convectifs et diffusifs sur une solution a-priori, convection d'une tâche gaussienne, décroissance d'un vortex de Taylor et cavité entraînée) et tri-dimensionnel (écoulement autour d'un obstacle cubique). Une attention particulière a été portée à l'étude de la précision et du traitement des conditions limites. L'implémentation proposée du schéma polynomial permet d'approcher, pour un maillage identique, les temps de simulation obtenus avec un schéma décentré classique d'ordre 2, mais avec une précision supérieure. Le schéma compact donne la meilleure précision. En utilisant une méthode de Jacobi sans calcul implicite de la matrice pour calculer le gradient, le temps de simulation devient intéressant uniquement lorsque la précision requise est importante. Une alternative est la résolution du système linéaire par une méthode multigrille algébrique. Cette méthode diminue considérablement le temps de calcul du gradient et le schéma Padé devient performant même pour des maillages grossiers. Enfin, pour réduire les temps de simulation, la parallélisation des schémas d'ordre élevé est réalisée par une décomposition en sous domaines. L'assemblage des flux s'effectue naturellement et différents solveurs proposés par les librairies PETSC et HYPRE (solveur multigrille algébrique et méthode de Krylov préconditionnée) permettent de résoudre les systèmes linéaires issus de notre problème. Le travail réalisé a consisté à identifier et déterminer les paramètres de résolution qui conduisent aux temps de simulation les plus faibles. Différents tests de speed-up et de scale-up ont permis de déterminer la méthode la plus efficace et ses paramètres optimaux pour la résolution en parallèle des systèmes linéaires issus de notre problème. Les résultats de ce travail ont fait l'objet d'une communication dans un congrès international “ parallel CFD juin 2008 ” et d'un article soumis à “ International Journal for Numerical Methods in Fluids ” (Analysis of high-order finite volume schemes for the incompressible Navier Stokes equations)
29

Modélisation multi-échelle des matériaux viscoélastiques hétérogènes : application à l'identification et à l'estimation du fluage propre de bétons d'enceintes de centrales nucléaires

Le, Quoc Viet 15 January 2008 (has links) (PDF)
Le béton se présente comme un matériau constitué de granulats, jouant le rôle d'inclusions, enchâssés dans une matrice correspondant à la pâte de ciment hydraté. A l'échelle de la pâte, l'hydratation du ciment génère un milieu multiphasique, constitué d'un squelette solide et de pores remplis ou partiellement remplis d'eau selon leur taille. Le composant principal du squelette solide est le gel de C-S-H, les autres composants étant de nature cristalline. La qualification de gel du composant C-S-H est liée à sa nanostructure dont la schématisation la plus admise consiste en une phase aqueuse adsorbée, en sandwich avec des feuillets solides de nature cristalline. Il est bien admis que la structure du C-S-H est à l'origine de son comportement viscoélastique et donc de celui du béton. Ce comportement viscoélastique peut s'expliquer par un réarrangement de sa nanostructure sous l'effet des contraintes mécaniques appliquées à l'échelle macroscopique. La modélisation macroscopique du fluage du béton ne permet pas d'expliquer la variabilité du fluage d'une formulation de béton à une autre. En effet, les paramètres des modèles macroscopiques ne peuvent être identifiés que par l'analyse de résultats expérimentaux obtenus par des essais réalisés sur des éprouvettes de béton. Ces paramètres ne sont valables que pour une formulation donnée. L'identification de ces paramètres conduit donc à des programmes expérimentaux très coûteux et ne fournit pas suffisamment d'informations sur la sensibilité des paramètres macroscopiques à la variabilité des caractéristiques mécaniques et morphologies des constituants. Dans ce travail, on suppose qu'il existe une échelle microscopique à laquelle les mécanismes moteurs du fluage ne sont pas impactés par la formulation du béton. A cette échelle, celle du C-S-H, les propriétés viscoélastiques peuvent être considérées avoir un caractère intrinsèque. L'influence de la formulation ne concerne alors que les concentrations des différents hydrates. Trois approches, analytiques, semi-analytiques et numériques sont alors proposées pour estimer, par une homogénéisation multi-échelle, les propriétés viscoélastiques macroscopiques du béton à partir des propriétés de ses constituants ainsi qu'à partir de sa microstructure. Ces approches sont basées sur l'extension des schémas d'homogénéisation élastique au cas viscoélastique au moyen du principe de correspondance qui utilise la transformée de Laplace-Carson. Les propriétés effectives sont alors déterminées directement dans l'espace de Carson. Par la suite, celles dans l'espace temporel sont obtenues par la transformée inverse. Les approches proposées apportent des solutions aussi bien dans un cadre général que sous certaines hypothèses restrictives : coefficient de Poisson viscoélastique microscopique ou macroscopique constant, module de compressibilité constant. Sur le plan théorique, deux schémas d'homogénéisation ont été étudiés : le schéma de Mori-Tanaka, basé sur le problème de l'inclusion d'Eshelby, et le schéma auto-cohérente généralisé basé sur la neutralité énergique de l'inclusion. Les résultats obtenus montrent que sous ces hypothèses restrictives, le spectre macroscopique se présente comme une famille de sous ensembles de temps caractéristiques bornés par les temps caractéristiques microscopiques. Par ailleurs, les propriétés thermodynamiques, de croissance monotone et de concavité, des fonctions de retard macroscopiques ne sont préservées par l'homogénéisation que sous certaines conditions de compatibilité des spectres microscopiques. Sur le plan pratique, les méthodes développées ont été appliquées pour construire la complaisance de fluage propre macroscopique du béton en connaissant les données communes de toutes sortes de bétons et celles correspondant à une formulation donnée. Les résultats expérimentaux disponibles sont alors exploités pour analyser le caractère intrinsèque des propriétés viscoélastiques à l'origine du fluage du béton
30

Schémas numériques adaptés aux accélérateurs multicoeurs pour les écoulements bifluides

Jung, Jonathan 28 October 2013 (has links) (PDF)
Cette thèse traite de la modélisation et de l'approximation numérique des écoulements liquide-gaz compressibles. La difficulté essentielle réside dans la modélisation et l'approximation de l'interface liquide-gaz. Schématiquement, deux types de méthodes permettent l'étude de la dynamique de l'interface : l'approche eulérienne, aussi dite de capture de front ("front capturing method") et l'approche lagrangienne, de suivi de front ("front tracking method"). Nos travaux sont plutôt basés sur la méthode de capture de front. Le modèle bifluide est constitué d'un système de lois de conservation du premier ordre traduisant le bilan de masse, de quantité de mouvement et d'énergie du système physique. Ce système doit être fermé par une loi de pression du mélange gaz-liquide pour que sa résolution soit possible. Cette loi de comportement doit être choisie soigneusement, puisqu'elle conditionne les bonnes propriétés du système comme l'hyperbolicité ou l'existence d'une entropie de Lax. Les méthodes d'approximation doivent permettre de traduire au niveau discret ces propriétés. Les schémas conservatifs classiques de type Godunov peuvent être appliqués au modèle bifluide. Ils conduisent cependant à des imprécisions qui les rendent inutilisables en pratique. Enfin, l'existence de solutions discontinues rend difficile la construction de schémas d'ordre élevé. La structure complexe des solutions nécessite alors des maillages très fins pour une précision acceptable. Il est donc indispensable de proposer des algorithmes performants pour les calculateurs parallèles les plus récents. Au cours de cette thèse, nous allons aborder partiellement chacune de ces problématiques : construction d'une "bonne" loi de pression, construction de schémas numériques adaptés, programmation sur calculateur massivement multicoeur.

Page generated in 0.0288 seconds