• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 709
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8326
  • 2691
  • 2690
  • 1642
  • 1359
  • 1223
  • 866
  • 846
  • 823
  • 646
  • 583
  • 527
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Mise en œuvre de la méthode des éléments naturels contrainte en 3D Application au Cisaillage adiabatique

Illoul, Amran-Lounès 09 July 2008 (has links) (PDF)
Ce travail porte sur la mise en oeuvre en 3D de la méthode des éléments naturels contrainte CNEM en vue de son utilisation pour la simulation du cisaillage à grande vitesse. La CNEM est une approche à mi-chemin des approches sans maillage et des éléments finis. La construction de son interpolation utilise le diagramme de Voronoï contraint (dual du maillage de Delaunay contraint) associé à un nuage de noeuds répartis sur le domaine étudié muni d'une description de sa frontière. La mise en oeuvre de la CNEM comporte trois aspects principaux : i) la construction du diagramme de Voronoï contraint, ii) le calcul des fonctions de forme éléments naturels Sibson, iii) la discrétisation d'une formulation variationnelle générique par utilisation de l'intégration nodale stabilisée conforme, SCNI, introduite par Chen et Al en 2001. Une partie importante de ce travail concerne les deux derniers points. Pour le calcul des fonctions de formes Sibson 3D cinq algorithmes sont présentés, dont deux développés au cours de la thèse, et sont comparés en terme de performance. Par ailleurs, une discrétisation est proposée pour être applicable au cas des domaines fortement non convexes. La mise en oeuvre proposée est validée sur des exemples en élasticité linéaire 3D en petites perturbations (vis à vis de solutions analytiques et de résultats éléments finis) puis en grandes transformations (test de la barre de Taylor). L'application de la CNEM au cisaillage grande vitesse est finalement abordée. Les développements effectués ont été intégrés à la plateforme logicielle Nessy. Cette plateforme a pour objectif la capitalisation du savoir faire du LMSP en simulation numérique.
322

Minéralisation du soufre associée à la décomposition des matières organiques dans les sols et relations avec les dynamiques du carbone et de l'azote

Niknahad ghar makher, Hamid 04 September 2008 (has links) (PDF)
Résumé Dans différents pays de l'Europe de l'Ouest, des carences en soufre sont de plus en plus couramment observées sur les grandes cultures. Actuellement, les références précises sur le soufre font défaut pour développer des outils de gestion du soufre dans les sols cultivés. Récemment, afin de mieux quantifier et de modéliser la dynamique de S, le rôle de la biomasse du sol et la relation avec la dynamique du Carbone, les recherches se sont développées. En première partie de ce travail une étude de laboratoire a été effectuée sur 22 sols différant par leur texture , leur teneur en matière organique et leur histoire culturale pour déterminer le taux de minéralisation du soufre, du carbone et de l'azote et établir la relation entre minéralisation de S et certaines propriétés du sol. Les résultats suggèrent que la minéralisation du soufre est principalement conduite par l'activité microbienne hétérotrophe. Une équation de prédiction est proposée à partir du C organique, du pH du sol, du taux d'argile et du sulfate initial. L'objectif de la deuxième partie de ce travail était de quantifier l'impact de la disponibilité du soufre minéral de sol sur la décomposition des résidus de récolte et l'organisation du soufre. Ceci a été étudié d'une part en faisant varier la quantité initiale de S-SO42- dans le sol en présence de paille de colza et d'autre part avec des quantités croissantes de paille de blé apportées dans le sol afin de faire varier la demande en S de la microflore. Les résultats n'ont pas permis de mettre en évidence une limitation de la décomposition par la disponibilité de S, suggérant des besoins en S très limités de la microflore du sol pour assurer la décomposition de résidus végétaux. Enfin les effets de la nature des résidus végétaux et de leur contenu en soufre sur la dynamique de S ont été étudiés en troisième partie de ce travail. Ces résidus sont représentatifs des systèmes de grande culture (blé, colza, moutarde), mais aussi de prairies (fétuque) et forêts (feuilles de hêtre). Une relation entre C/S des résidus et minéralisation nette de S a été obtenue. Il a été mis en évidence l'importance du contenu en sulfate soluble de certains résidus de plante sur la libération nette de sulfate dans les sols. Les perspectives ouvertes par ce travail ont été abordées sous l'angle de la modélisation. D'une part a été évaluée la possibilité d'adapter un module de décomposition (du modèle sol-plante STICS) pour prédire la minéralisation de S des résidus végétaux au cours de leur décomposition dans des conditions optimales. D'autre part les résultats ont été utilisés pour élaborer des termes de minéralisation d'un bilan du soufre minéral, appliqué à la gestion de la fertilisation soufrée.
323

Modélisation numérique avancée pour la géophysique

Komatitsch, Dimitri 19 September 2003 (has links) (PDF)
La géophysique est une science fondamentalement liée aux observations, et son évolution rapide dans de nombreux domaines au cours des deux dernières décennies est due en grande partie à des avancées métrologiques importantes qui améliorent la qualité et la quantité des observations recueillies. Par exemple, dans le domaine de la sismologie, le réseau global (Global Seismographic Network - GSN) contient plus de 120 sismomètres, le premier instrument permanent de fond de mer (ocean-bottom seismometer - H2O) a été installé, et dans un futur proche des projets ambitieux tels que le réseau ultra dense américain de sismomètres ‘USArray' permettront d'obtenir des quantités très importantes de données à l'échelle d'un continent ou d'une région, enregistrées par des réseaux haute résolution de stations large bande. Dans le domaine de la géodésie satellitaire, que l'on peut aussi considérer en un sens comme la sismologie ultra longue période, les progrès métrologiques de positionnement GPS et l'interférométrie radar ont permis de mesurer les déformations et d'en déduire les contraintes à l'échelle régionale pendant et après de grands séismes (par exemple en Californie du Sud, Landers en 1992 ou Hector Mine en 1999), et d'étudier l'évolution de ces régions liée aux phénomènes post-sismiques. Bien évidemment, les progrès réalisés en instrumentation et acquisition de données doivent être accompagnés d'une meilleure compréhension théorique des phénomènes mis en jeu, ainsi que d'une meilleure modélisation de ceux-ci, au moyen de techniques de calcul numérique tridimensionnelles. Si nous comparons à l'évolution d'autres domaines tels que la mécanique des fluides, la météorologie ou encore l'astrophysique, dans lesquels les progrès en calcul scientifique ont suivi de près les progrès en instrumentation (cas des souffleries numériques, étude numérique de phénomènes climatiques tels que les ouragans etc.), le domaine de la sismologie n'a pas encore bénéficié pleinement des progrès rapides de l'analyse numérique, du calcul scientifique et de la technologie des ordinateurs modernes (calcul parallèle et vectoriel). Le présent mémoire résume les recherches que j'ai effectuées jusqu'à présent pour faire le lien entre différents domaines de la géophysique et les progrès du calcul scientifique. Nous avons d'une part développé des outils sophistiqués de calcul, nous les avons validés de manière rigoureuse, et nous les avons ensuite appliqués à des cas concrets intéressant la sismologie locale, régionale et globale. Dans la conclusion de ce document, nous exposons également quelques thèmes de recherche que nous souhaitons développer dans le futur.
324

Contribution à la modélisation et à la commande de systèmes en électronique de puissance

Godoy, Emmanuel 11 September 2008 (has links) (PDF)
Le mémoire scientifique de l'HDR aborde dans un premier temps les problèmes de commande de systèmes en électronique de puissance et se focalise ensuite sur une nouvelle architecture utilisée pour des applications ferroviaires. Les systèmes en électronique de puissance présentent généralement la particularité de fonctionner en régime de commutation. Dans ce cas, même si le système est constitué par des sous-systèmes linéaires, le comportement global est non linéaire. Les non-linéarités sont de plusieurs natures : valeurs des paramètres dépendant du point de fonctionnement ou présentant des discontinuités ou encore variation de l'ordre du système suivant la phase de fonctionnement. On entend ici, par ordre, le degré de l'équation différentielle décrivant l'évolution dynamique des grandeurs du procédé. Ce fonctionnement en commutation est caractéristique de la plupart des systèmes en électronique de puissance. Ainsi, la commande de ce type de systèmes peut s'avérer relativement complexe, et cette difficulté s'accroît fortement lorsque le nombre d'éléments en commutation augmente (interrupteurs commandés, diodes, etc.). Dès lors il est nécessaire d'aborder le problème de la commande dans un cadre formalisé, d'une part afin de faciliter l'analyse et la synthèse de ce type de systèmes, d'autre part dans le but d'améliorer les performances lorsque leur recherche conduit à des fonctionnements aux limites des éléments composant le procédé. Cette nécessité d'outils méthodologiques est encore confirmée par les orientations actuelles d'implantation numérique des lois de commande. En effet, les progrès technologiques en termes de micro-contrôleurs ou de DSP facilitent l'implantation de lois de commandes plus complexes permettant une meilleure robustesse, éventuellement un gain de performances. Les fréquences de commande utilisées peuvent alors augmenter et se rapprocher de la fréquence de commutation des semi-conducteurs, ou même être synchronisées sur cette dernière. Ainsi certaines méthodes utilisées couramment en électronique de puissance, comme le moyennage par exemple, trouvent leurs limites lorsque la dynamique nécessaire pour satisfaire le cahier des charges se rapproche de la fréquence de commutation des interrupteurs commandés. Ce type de méthodes est souvent utilisé pour la commande de certaines classes de convertisseurs. Dans ce contexte, des modèles trop simples peuvent s'avérer insuffisants sur certaines réalisations, et conduire à des problèmes importants du point de vue de la commande. Cela est vrai en particulier lorsque la variation des paramètres du système (par exemple la charge ou la tension d'alimentation) conduit à des changements de mode de fonctionnement entraînant des variations de modèle non seulement paramétriques mais aussi d'ordre. Les outils de l'Automatique offrent une base méthodologique permettant d'aborder la commande de ce type de système. Une manière de traiter le problème de la modélisation et de la commande de certaines classes de systèmes en électronique de puissance est celle que nous avons utilisée dans les travaux concernant les convertisseurs à double résonance ou encore celle utilisée dans le cadre du projet Katium sur le développement d'un nouveau type de convertisseur multicellulaire pour applications ferroviaires.
325

Contribution à la conception par la simulation en électronique de puissance : application à l'onduleur basse tension

Buttay, Cyril 30 November 2004 (has links) (PDF)
L'électronique de puissance prend une place croissante dans le domaine automobile, avec notamment l'apparition de systèmes de motorisation mixte thermique-électrique (véhicules hybrides). Dans cette optique, les outils de conception des convertisseurs basse tension doivent être suffisamment précis pour réduire les phases de prototypage, mais également pour analyser la robustesse d'un convertisseur face aux inévitables dispersions d'une fabrication en grande série.<br>Dans la première partie, nous proposons un modèle de MOSFET valide dans les différentes phases de fonctionnement rencontrées dans un onduleur (commutation du transistor, de sa diode interne, et fonctionnement en avalanche notamment). La nécessité de modélisation du câblage est ensuite démontrée, puis nous présentons la méthode de modélisation, reposant sur l'utilisation du logiciel InCa. <br>La seconde partie de cette thèse, qui repose principalement sur une démarche expérimentale, permet d'identifier les paramètres du modèle de MOSFET puis de valider la modélisation complète du convertisseur vis-à-vis de mesures. Pour cela, nous avons choisi un critère de comparaison très sensible aux erreurs de modélisation : le niveau de pertes du convertisseur. La mesure de ces pertes est effectuée par calorimétrie. <br>Nous en concluons que la modélisation proposée atteint une précision satisfaisante pour pouvoir être exploitée dans une démarche de conception, ce qui fait l'objet de la dernière partie de cette thèse. La simulation est alors utilisée pour étudier l'influence du câblage et de la commande sur les pertes d'un bras d'onduleur, puis pour étudier la répartition du courant entre transistors d'un assemblage en parallèle en tenant compte de leurs dispersions de caractéristiques. Une telle étude ne pourrait que très difficilement être effectuée de façon expérimentale (elle nécessiterait la modification du circuit pour insérer les instruments de mesure), ce qui montre l'intérêt de la conception assistée par ordinateur en tant qu'outil d'analyse.
326

Etude des dysfonctionnements dans la prise de décision. Application au choix d'acteur.

Stal-Le Cardinal, Julie 10 July 2000 (has links) (PDF)
En adéquation avec l'objectif général de la productique, l'optimisation du triptyque qualité, coût, délai, nous proposons ici une modélisation des dysfonctionnements dans le processus de prise de décision. Pour cela, nous considérons l'entreprise comme un réseau d'acteurs pouvant prendre des décisions en vue d'atteindre un objectif général.<br />Nous proposons un premier modèle : la DTL ou Decision Time Line. La DTL représente toute décision comme un processus de prise de décision, qui suit une ligne de vie. L'enchaînement d'un certain nombre d'étapes peut se dérouler dans des ordres différents à partir d'une question posée jusqu'à la transmission de la réponse à l'interlocuteur.<br />Un deuxième modèle permet de représenter et de quantifier l'impact des dysfonctionnements dans le processus de décision. Un espace de représentation des dysfonctionnements, au sein de la DTL, est proposé. Il s'agit de décomposer tout dysfonctionnement en dysfonctionnements élémentaires, d'identifier les étapes de la DTL ayant généré les dysfonctionnements et de mesurer les écarts induits. Nous considérons, ici, la décision de façon globale et la modélisation proposée est applicable à tout type de prise de décision.<br />L'étude des dysfonctionnements dans les processus de prise de décision se concrétise, ensuite, par une application au choix d'acteur et par une présentation des outils développés pour faciliter ce type particulier de décision. Ces outils sont regroupés sous le nom de SACADO : Système d'Aide au Choix d'Acteur et aux Décisions d'Organisation. SACADO propose un processus cible à suivre pour réduire les risques de dysfonctionnements. Cette méthode permet également, pour un dysfonctionnement donné, d'en analyser les causes potentielles et d'en déduire des préconisations. Enfin, les dysfonctionnements analysés par SACADO alimentent l'analyse globale de l'organisation d'une entreprise.<br />Finalement, une application industrielle au sein de deux sites du groupe Vallourec a permis une première validation de la méthode mise au point. Elle a permis de confirmer que SACADO répond à un réel besoin industriel.
327

Conception temporellement sûre de circuits intégrés complexes

Amblard, Paul 15 June 1984 (has links) (PDF)
Les différentes façons de décrire un circuit intégré (niveau architectural, logique, électrique, implante; mode structurel, fonctionnel). L'accent est mis sur les descriptions tenant compte de l'aspect temporel. La sûreté de la description, ou cohérence, est traitée à part. Le modèle par événements du comportement des systèmes temporisés est présenté partiellement. Le modèle classique d'automate d'état fini est cité, avec les difficultés de son utilisation pour les systèmes temporisés. On propose une définition d'automate d'état fini temporisé combinant les deux approches. Le fonctionnement est caractériser par un calcul algébrique. Analyse de deux réalisations de base et de variantes de l'une d'entre elles, ainsi qu'une 3eme famille. Étude d'un automate plus complexe forme d'une partie contrôle et d'une partie opératoire. Calcul de la synchronisation.
328

Modèles biomécaniques et physio-pathologiques pour l'analyse d'images cérébrales

Clatz, Olivier 10 February 2006 (has links) (PDF)
Les travaux présentés dans ce manuscrit proposent plusieurs contributions dans le développement de modèles algorithmiques du cerveau et de ses pathologies. Le point commun entre tous ces travaux est un modèle dit de "seconde génération", spécifique à la géométrie du patient et capable de simuler le comportement mécanique du cerveau. La première partie de cette thèse présente l'utilisation de ce modèle pour l'estimation des déformations du cerveau au cours de deux opérations : l'électrostimulation pour le traitement de la maladie de Parkinson et la résection de tumeur. Dans le premier cas, le pouvoir prédictif du modèle est utilisé pour simuler les déplacements du cerveau à partir des données disponibles avant l'opération. Dans le second, le modèle est utilisé conjointement avec de l'imagerie par résonance magnétique per-opératoire pour estimer les déplacements observés dans les images. Dans la deuxième partie, nous abordons une classe de modèles faisant intervenir les pathologies cérébrales. Ainsi nous proposons un nouveau modèle 3D d'hydrocéphalie consécutive à une hémorragie méningée. Ce modèle permet d'introduire sous la forme d'un couplage entre modèles scalaires et volumiques une composante temporelle dynamique nécessaire en simulation de chirurgie. Ensuite, nous nous intéressons à la modélisation de la croissance du glioblastome. L'évolution de la densité de cellules tumorales dans le parenchyme est simulée par une équation de réaction-diffusion anisotrope prenant en compte la direction des fibres. Enfin, une nouvelle relation d'équilibre est introduite pour modéliser le couplage entre la densité de cellules tumorales et le modèle mécanique.
329

Modélisation et caractérisation des supercondensateurs à couche double électrique utilisés en électronique de puissance

Belhachemi, Farid 19 December 2001 (has links) (PDF)
Une étude bibliographique sur les supercondensateurs a permis de faire le bilan des technologies développées et des applications potentielles, d'expliquer le principe de fonctionnement et la physique assez particulière de ces dispositifs et surtout de dégager un modèle théorique équivalent, tenant compte des différents phénomènes liés aux caractéristiques de la couche double électrique et aux procédés et matériaux entrant dans la fabrication de ces composants. En se basant sur cette théorie, nous avons pu élaboré un modèle équivalent de supercondensateurs, avec pour objectif un degré de complexité ne pénalisant ni la fidélité (précision du modèle), ni l'accessibilité (détermination et mesure des paramètres du modèle), ni l'exploitation (utilisation et intégration du modèle dans les outils et supports de simulation). Une procédure expérimentale bien déterminée a été établie pour l'identification des paramètres du modèle et un travail expérimental et de simulation conséquent a permis de valider le modèle proposé.
330

Symba : un environnement malléable support d'activités collectives en contexte d'apprentissage

Betbeder, Marie-Laure 15 December 2003 (has links) (PDF)
Nos travaux de thèse s'inscrivent dans le cadre des recherches menées sur les Environnements Informatiques pour l'Apprentissage Humain (EIAH) et plus particulièrement les systèmes supports aux activités collectives en contexte d'apprentissage (activités collectives qui favorisent l'apprentissage d'aptitudes ou l'acquisition de connaissances). Parmi ces activités, nous nous intéressons particulièrement à celles dont un des objectifs est l'apprentissage du travail collectif.<br /><br />Nos travaux ont conduit à la conception d'un environnement malléable support aux activités collectives, Symba. A travers la conception de Symba nous abordons les problématiques du support à la modélisation de l'activité collective par les apprenants, de la perception de l'activité et de la malléabilité de l'environnement.<br />Symba est un environnement qui permet à un enseignant de proposer à un groupe d'apprenants distants une activité qu'ils devront réaliser collectivement. L'environnement permet de décomposer l'activité en différentes étapes suivant un modèle alternant des étapes individuelles et collectives, puis propose aux apprenants de s'organiser pour réaliser chacune des étapes. Décider de l'organisation de l'étape revient à composer un plan, puis à décrire chacune des tâches le composant. A partir de l'organisation définie par les apprenants, Symba propose un environnement intégrant les ressources et outils décrits au niveau organisation, environnement d'activité au sein duquel les apprenants vont pouvoir réaliser les tâches qu'ils ont définies.

Page generated in 0.0723 seconds