• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 80
  • 40
  • 1
  • 1
  • Tagged with
  • 367
  • 120
  • 81
  • 69
  • 48
  • 46
  • 39
  • 39
  • 38
  • 35
  • 34
  • 34
  • 33
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation et conception optimale pour les applications ferroviaires

Kreuawan, Sangkla 24 November 2008 (has links) (PDF)
La conception d'un système électrique de transport ferroviaire est une tâche complexe qui fait appel simultanément à des experts de domaines de compétence différents. Les constructeurs ferroviaires gèrent cette complexité ce qui leurs permet de fabriquer des équipements performants. Néanmoins, dans un marché global, tout gain méthodologique peut se traduire en avantage concurrentiel.<br /><br />La conception systémique optimale de composant électrotechnique est abordée dans cette thèse. Une chaîne de traction électrique est choisie comme exemple représentatif d'un système complexe. La démarche et les outils sont mis en œuvre sur deux applications: la conception d'un moteur de traction et la conception simultanée de plusieurs composants clés.<br /><br />Pour concevoir un moteur de traction, le cycle de fonctionnement et le comportement thermique transitoire sont primordiaux. La bonne adaptation du moteur à sa mission permet de réduire considérablement sa masse. L'approche multidisciplinaire est utilisée pour gérer les interactions entre modèles de disciplines différentes au sein d'un même processus d'optimisation. Suivant la méthode employée, le temps d'optimisation peut être réduit grâce à la répartition des taches par domaine physique et d'en paralléliser l'exécution. Des optimisations multiobjectif ont également été appliquées. Des fronts de Pareto sont obtenus malgré l'utilisation d'un modèle précis mais coûteux, le modèle éléments finis.<br /><br />L'approche décomposition hiérarchique de la méthode "Target Cascading" est appliquée au problème de conception de la chaîne de traction. Le système et ses composants sont conjointement conçus. Cette méthode est bien adaptée à la démarche de conception optimale des systèmes complexes, tout en respectant l'organisation par produit de l'entreprise.
32

Conditions et contraintes de l'enseignement de la statistique en classe de seconde générale. Un repérage didactique.

Wozniak, Floriane 26 November 2005 (has links) (PDF)
Former les citoyens à la pensée de la variabilité et à la gestion de l'aléatoire est aujourd'hui une question socialement vive dont on montre ici, à propos de la classe de seconde, qu'elle est aussi didactiquement vive. Lorsqu'un professeur de mathématiques conçoit et réalise la partie de son enseignement dévolue à la statistique, sous quelles contraintes doit-il opérer ? Pourquoi, bien que fort divers, les enseignements donnés semblent-ils converger imparablement vers une réduction arithmétique de la statistique ? Peut-on modifier ces contraintes pour rendre possible un enseignement plus authentique au plan épistémologique ? Qu'y peuvent les professeurs et leurs organisations professionnelles ? À l'aide des outils les plus récents de la théorie anthropologique du didactique, nous mettons notamment en évidence que l'indispensable reprise de la transposition didactique de la statistique doit être éclairée et guidée par une analyse d'ensemble de son enseignement comme « fait social total ».
33

Etats tunnel dans les quasicristaux et dans les cristaux de grandes mailles

Bert, Fabrice 08 October 2001 (has links) (PDF)
Les matériaux amorphes présentent des excitations de basses énergies d'origine élastique qui sont absentes des cristaux simples et qui leur confèrent à basse température (T<1K) des propriétés physiques particulières et quasi-universelles. Dans le modèle phénoménologique des états tunnel, ces excitations résultent du passage par effet tunnel de groupes d'atomes entre plusieurs configurations équivalentes. Afin de mieux comprendre la nature microscopique de ces états tunnel et leur lien avec le désordre structural, nous nous sommes intéressés à des matériaux présentant un ordre intermédiaire, entre amorphe et cristallin. Nous avons ainsi mesuré par une méthode propagative les propriétés acoustiques, vitesse et atténuation ultrasonores, de différents quasicristaux et cristaux de grandes mailles entre 15mK et 40K. Une première expérience dans un quasicristal mono-grain i-AlCuFe de très bonne qualité structurale a montré l'existence d'états tunnel avec une densité d'états similaire à celle des amorphes. De plus, les mesures dans un approximant R-AlLiCu, et dans deux quasicristaux i-AlLiCu imparfaits, dont l'un a été recuit pour améliorer sa qualité structurale, ont montré que la densité d'états des états tunnel augmentait avec la qualité de l'ordre quasicristallin. Il apparaît donc que les états tunnel ne sont pas liés à des défauts de structure tels que les phasons mais qu'ils sont intrinsèques à l'ordre quasicristallin. Ceci est confirmé par l'observation d'une anisotropie du couplage phonons-états tunnel dans un quasicristal bidimensionnel décagonal d-AlNiCo. Nous avons aussi étudié des matériaux avec un ordre encore plus prononcé : des monocristaux d'olivine et de cordiérite possédant une maille cristalline de grande dimension (respectivement 28 et 116 atomes par maille). Nous avons montré que des états tunnel existaient déjà dans ce type de matériaux, avec une densité d'états plus faible, mais qui augmente avec la taille de la maille.
34

Contributions au partitionnement de graphes parallèle multi-niveaux

Pellegrini, François 03 December 2009 (has links) (PDF)
Le partitionnement de graphes est une technique employée dans de nombreux domaines scientifiques. Il est utilisé pour résoudre des problèmes d'optimisation, modélisés sous la forme de graphes valués ou non, et pour lesquels la recherche de bonnes solutions équivaut au calcul, éventuellement récursivement, de coupes sommet ou arête les plus petites possible et qui équilibrent les tailles des sous-parties séparées. La plupart des méthodes actuelles de partitionnement de graphes mettent en oeuvre un schéma multi-niveaux, dans lequel le graphe à partitionner est successivement contracté pour former une famille de graphes de plus en plus petits, mais de structure topologique similaire, de sorte qu'une partition initiale calculée sur le plus petit graphe puisse être propagée de proche en proche, par prolongations et raffinements successifs, jusqu'à obtenir un partitionnement du graphe initial. Du fait de l'augmentation croissante de la taille des problèmes à résoudre, ceux-ci ne peuvent plus être traités de façon séquentielle sur un unique ordinateur. Il est donc nécessaire de concevoir des algorithmes parallèles de partitionnement de graphes, aptes à traiter des graphes à plusieurs milliards de sommets distribués sur plusieurs milliers de processeurs. Plusieurs auteurs s'étaient déjà attelés à cette tâche, mais la performance des algorithmes proposés, ou la qualité des solutions produites, se dégradent lorsque le nombre de processeurs augmente. Ce mémoire présente les travaux réalisées au sein du projet PT-Scotch sur la conception d'algorithmes efficaces et robustes pour la parallélisation du schéma multi-niveaux. Il se concentre en particulier sur les phases de contraction et de raffinement, qui sont les plus critiques en termes de performance et de qualité des solutions produites. Il propose un algorithme parallèle probabiliste d'appariement, ainsi qu'un ensemble de méthodes permettant de réduire l'espace des solutions au cours la phase de raffinement et facilitant l'usage de méthodes globales, qui passent mieux à l'échelle mais sont en général bien plus coûteuses que les algorithmes d'optimisation locale habituellement mis en oeuvre dans le cas séquentiel.
35

Contributions à la théorie des valeurs extrêmes et à la réduction de dimension pour la régression

Gardes, Laurent 17 November 2010 (has links) (PDF)
Ce mémoire résume mes travaux de recherche portant sur les trois thèmes suivants : inférence pour les lois à queue de type Weibull, estimation de quantiles extrêmes conditionnels et réduction de dimension pour la régression. Dans le cadre du premier thème, nous avons proposé de nombreux estimateurs du paramètre de forme et de quantiles extrêmes pour des lois à queue de type Weibull. Leurs propriétés théoriques ont aussi été étudiées. Les deuxième et troisième thèmatiques ont pour point de départ une application concrête respectivement l'estimation de niveaux de retour de pluies et l'étude d'images hyperspectrales Martienne. D'un point de vue théorique, nous avons proposé et étudié, dans le cadre du deuxième thème, des estimateurs de quantiles extrêmes conditionnels. Au sein du troisième thème, nous avons proposé une méthode de régularisation pour la régression inverse par tranches (SIR).
36

La diffusion des technologies: une approche par la professionnalisation. Le cas des technologies web.

Bureau, Sylvain 24 January 2007 (has links) (PDF)
Si la diffusion des technologies web modifie les dynamiques professionnelles en déclenchant des phénomènes de professionnalisation, les dynamiques professionnelles, en particulier concurrentielles, influencent la diffusion horizontale (adoption des outils par les organisations) et verticale (adoption, assimilation et appropriation au sein d'une même organisation) des technologies web. Pour caractériser ce phénomène, nous étudions les relations entre les évolutions macro (constitution de nouveaux groupes professionnels liés au web, évolution des technologies web) et micro (transformations des pratiques de travail, évolution des relations entre groupes professionnels). Nous utilisons le concept de professionnalisation organisationnelle, défini comme l'organisation d'une nouvelle activité via la structuration des rôles des groupes professionnels, pour analyser les dynamiques au sein des entreprises. Nous adoptons une méthode multi-niveaux fondée sur des données qualitatives (trois études de cas d'entreprise et une comparaison entre le cas français et américain) et quantitatives (trois questionnaires).
37

ELECTRODYNAMIQUE QUANTIQUE D'UN SYSTEME D'ELECTRONS BIDIMENSIONNEL SOUS CHAMP MAGNETIQUE

Hagenmuller, David 10 December 2012 (has links) (PDF)
Dans ce manuscrit de thèse, nous nous intéressons au couplage entre le champ électromagnétique quantifié au sein d'un résonateur optique et la transition cyclotron d'un gaz d'électrons bidimensionnel soumis à un champ magnétique perpendiculaire. Nous montrons que ce système peut atteindre un régime de couplage ultrafort inédit, dans lequel la fréquence de Rabi du vide (quantifiant l'intensité de l'interaction lumière-matière) devient comparable ou plus grande que la fréquence de la transition cyclotron pour des facteurs de remplissage suffisamment élevés. Nos prédictions théoriques ont alors donné lieu à une vérification expérimentale spectaculaire. En outre, nous avons généralisé la théorie au cas du graphène dont les excitations de basse énergie sont convenablement décrites par un hamiltonien de Dirac sans masse. Nous montrons que si le couplage ultrafort peut également être atteint dans ce cas, des différences qualitatives importantes apparaissent par rapport au cas des fermions massifs du semiconducteur.
38

Algorithmes itératifs à faible complexité pour le codage de canal et le compressed sensing

Danjean, Ludovic 29 November 2012 (has links) (PDF)
L'utilisation d'algorithmes itératifs est aujourd'hui largement répandue dans tous les domaines du traitement du signal et des communications numériques. Dans les systèmes de communications modernes, les algorithmes itératifs sont utilisés dans le décodage des codes ''low-density parity-check'' (LDPC), qui sont une classe de codes correcteurs d'erreurs utilisés pour leurs performances exceptionnelles en terme de taux d'erreur. Dans un domaine plus récent qu'est le ''compressed sensing'', les algorithmes itératifs sont utilisés comme méthode de reconstruction afin de recouvrer un signal ''sparse'' à partir d'un ensemble d'équations linéaires, appelées observations. Cette thèse traite principalement du développement d'algorithmes itératifs à faible complexité pour les deux domaines mentionnés précédemment, à savoir le design d'algorithmes de décodage à faible complexité pour les codes LDPC, et le développement et l'analyse d'un algorithme de reconstruction à faible complexité, appelé ''Interval-Passing Algorithm (IPA)'', dans le cadre du ''compressed sensing''.Dans la première partie de cette thèse, nous traitons le cas des algorithmes de décodage des codes LDPC. Il est maintenu bien connu que les codes LDPC présentent un phénomène dit de ''plancher d'erreur'' en raison des échecs de décodage des algorithmes de décodage traditionnels du types propagation de croyances, et ce en dépit de leurs excellentes performances de décodage. Récemment, une nouvelle classe de décodeurs à faible complexité, appelés ''finite alphabet iterative decoders (FAIDs)'' ayant de meilleures performances dans la zone de plancher d'erreur, a été proposée. Dans ce manuscrit nous nous concentrons sur le problème de la sélection de bons décodeurs FAID pour le cas de codes LDPC ayant un poids colonne de 3 et le cas du canal binaire symétrique. Les méthodes traditionnelles pour la sélection des décodeurs s'appuient sur des techniques asymptotiques telles que l'évolution de densité, mais qui ne garantit en rien de bonnes performances sur un code de longueurs finies surtout dans la région de plancher d'erreur. C'est pourquoi nous proposons ici une méthode de sélection qui se base sur la connaissance des topologies néfastes au décodage pouvant être présente dans un code en utilisant le concept de ''trapping sets bruités''. Des résultats de simulation sur différents codes montrent que les décodeurs FAID sélectionnés grâce à cette méthode présentent de meilleures performance dans la zone de plancher d'erreur comparé au décodeur à propagation de croyances.Dans un second temps, nous traitons le sujet des algorithmes de reconstruction itératifs pour le compressed sensing. Des algorithmes itératifs ont été proposés pour ce domaine afin de réduire la complexité induite de la reconstruction par ''linear programming''. Dans cette thèse nous avons modifié et analysé un algorithme de reconstruction à faible complexité dénommé IPA utilisant les matrices creuses comme matrices de mesures. Parallèlement aux travaux réalisés dans la littérature dans la théorie du codage, nous analysons les échecs de reconstruction de l'IPA et établissons le lien entre les ''stopping sets'' de la représentation binaire des matrices de mesure creuses. Les performances de l'IPA en font un bon compromis entre la complexité de la reconstruction sous contrainte de minimisation de la norme $ell_1$ et le très simple algorithme dit de vérification.
39

Conscience et connaissance du droit / Consciousness and Knowledge of Law

Ribordy, François-Xavier January 1975 (has links)
Le but de cette recherche est d'évaluer la conscience et la connaissance des lois a tous les niveaux scolaires soit: primaire, secondaire, collegial, universitaire et education permanente, afin de mettre sur pied un enseignement cumulatif du droit et de préparer un matériel pédagogique adapté au développement de l'étudiant. We hope to evaluate consciousness and knowledge of the law at all educational levels: elementary, secondary, collegial and adult extension programs. Our aim is to introduce a cumulative program for the teaching of law and to prepare pedagogical material adapted to students at various levels of development
40

Étude de la compensation mnésique dans le cadre des niveaux de traitement : Approche expérimentale et modélisation

Rodrigues, Jérôme 08 December 2006 (has links) (PDF)
Les travaux présentés dans cette thèse concernent le phénomène de compensation mnésique.<br />Ce phénomène réfère à la réduction, voire l'annulation, d'une difficulté de mémorisation via<br />l'utilisation d'aides de mémoire. Nos investigations ont permis de préciser la nature des processus<br />cognitifs impliqués dans la compensation mnésique, en utilisant des expérimentations et<br />des simulations informatiques. Cette double approche a reposé principalement sur le modèle<br />de compensation de Bäckman et Dixon, le cadre de la mémoire défini par les niveaux de traitement<br />et le modèle formel Minerva 2. Concernant les phénomènes compensatoires, les résultats<br />obtenus mettent en avant la place centrale de l'adéquation entre les caractéristiques du sujet<br />et celles de la tâche et soulignent le rôle crucial des interactions entre les aides de mémoire,<br />afin de pallier la difficulté. L'ensemble des expérimentations et des simulations effectuées nous<br />a permis de proposer un modèle de compensation mnésique dans le cadre des niveaux de traitement.<br />Pour finir, les perspectives de notre travail sont positionnées dans le domaine de la<br />remédiation cognitive et des assistants informatiques à la mémorisation.

Page generated in 0.03 seconds