• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Commande optimisée d'un actionneur linéaire synchrone pour un axe de positionnement rapide

Remy, Ghislain 17 December 2007 (has links) (PDF)
Les moteurs linéaires sont devenus des composants incontournables dans le domaine de la conception des machines de production. L'actionneur synchrone à aimants permanents (PMLSM) constitue le principal composant et permet aujourd'hui d'obtenir des performances nettement supérieures à celles de son homologue rotatif accouplé à un système de transformation de mouvement. Cependant, pour utiliser ces constituants de façon optimale, il est nécessaire de prendre en compte dans la commande les spécificités de ce type d'actionneur. En effet, des phénomènes électriques et magnétiques, tels que les forces électromotrices non-sinusoïdales, la saturation des inductances et les forces de détente, génèrent des forces ondulantes perturbatrices pour la partie mécanique. L'objectif de cette étude est donc, dans un premier temps, d'améliorer la modélisation de ces moteurs linéaires en vue de leur commande. Des méthodes analytiques et éléments-finis sont utilisées pour quantifier l'importance de ces phénomènes sur la force de poussée. Puis, dans une deuxième partie, nous définissons les structures de commande optimales permettant de prendre en compte les phénomènes retenus. Le formalisme du Graphe Informationnel Causal (GIC), développé par le laboratoire L2EP, est utilisé pour représenter et définir de façon systématique les structures de commande retenues. Les méthodologies d'inversion du GIC sont détaillées pour permettre la définition des structures de commande en Boucles Fermées et Non-Fermées. Les structures classiques de commande industrielles sont analysées et de nouvelles structures de commande sont proposées pour la commande en force d'un moteur linéaire LMD10-050 de la société ETEL.
402

Contribution à la conception par la simulation en électronique de puissance : application à l'onduleur basse tension

Buttay, Cyril 30 November 2004 (has links) (PDF)
L'électronique de puissance prend une place croissante dans le domaine automobile, avec notamment l'apparition de systèmes de motorisation mixte thermique-électrique (véhicules hybrides). Dans cette optique, les outils de conception des convertisseurs basse tension doivent être suffisamment précis pour réduire les phases de prototypage, mais également pour analyser la robustesse d'un convertisseur face aux inévitables dispersions d'une fabrication en grande série.<br>Dans la première partie, nous proposons un modèle de MOSFET valide dans les différentes phases de fonctionnement rencontrées dans un onduleur (commutation du transistor, de sa diode interne, et fonctionnement en avalanche notamment). La nécessité de modélisation du câblage est ensuite démontrée, puis nous présentons la méthode de modélisation, reposant sur l'utilisation du logiciel InCa. <br>La seconde partie de cette thèse, qui repose principalement sur une démarche expérimentale, permet d'identifier les paramètres du modèle de MOSFET puis de valider la modélisation complète du convertisseur vis-à-vis de mesures. Pour cela, nous avons choisi un critère de comparaison très sensible aux erreurs de modélisation : le niveau de pertes du convertisseur. La mesure de ces pertes est effectuée par calorimétrie. <br>Nous en concluons que la modélisation proposée atteint une précision satisfaisante pour pouvoir être exploitée dans une démarche de conception, ce qui fait l'objet de la dernière partie de cette thèse. La simulation est alors utilisée pour étudier l'influence du câblage et de la commande sur les pertes d'un bras d'onduleur, puis pour étudier la répartition du courant entre transistors d'un assemblage en parallèle en tenant compte de leurs dispersions de caractéristiques. Une telle étude ne pourrait que très difficilement être effectuée de façon expérimentale (elle nécessiterait la modification du circuit pour insérer les instruments de mesure), ce qui montre l'intérêt de la conception assistée par ordinateur en tant qu'outil d'analyse.
403

Approaches to Assess Validity of Derivatives and to Improve Efficiency in Automatic Differentiation of Programs

Araya-Polo, Mauricio 24 November 2006 (has links) (PDF)
Ce travail concerne la Differentiation Automatique (DA) de codes. La DA transforme un programme calculant une fonction mathematique en un nouveau programme calculant ses derivees, gagnant ainsi un temps de developpement consequent. L'usage de la DA se repand en Calcul Scientifique, mais souffre encore de quelques problemes.<br>Cette these propose des elements de solution a deux de ces problemes. Le premier probleme est la non-differentiabilite des programmes reels, pour certaines entrees.<br>Les outils de DA negligent souvent ce probleme, alors que les utilisateurs ont besoin d'une grande confiance dans ces derivees avant de les utiliser, par exemple dans des boucles d'optimisation. Quelle que soit son origine reelle, cette non-differentiabilite se traduit dans la structure de controle des programmes. Plutot que d'etudier des extensions de la notion de derivee, nous preferons ici caracteriser le domaine autour des entrees courantes pour lequel le controle reste constant et la differentiabilite est conservee. Nous proposons plusieurs approches et evaluons leurs complexites. Nous etudions formellement une construction du domaine entier, mais sa complexite limite son application. Alternativement, nous proposons une methode directionnelle moins couteuse, que nous avons implementee et validee sur plusieurs exemples. Le second probleme est l'efficacite du mode inverse de la DA, qui produit des codes 'adjoints' calculant des gradients. Ces codes utilisent les valeurs intermediaires du programme initial dans l'ordre inverse, ce qui necessite une combinaison de sauvegarde et de recalcul de ces valeurs. Une tactique fondamentale, nommee 'ckeckpointing', economise de la memoire au prix de la reexecution de segments de code. Dans notre travail, nous formalisons les analyses de flot de donnees necessaires a la differentiation inverse, y compris dans le cas du checkpointing. A partir de cette formalisation, nous proposons deux avancees aux strategies de la DA inverse. D'une part ces analyses nous fournissent des ensembles de valeurs a sauvegarder, que nous pouvons prouver minimaux.<br>D'autre part nous en tirons des indications sur les meilleurs segments de code candidats au checkpointing. Pour experimenter ces choix, nous etendons les analyses et l'algorithme de differentiation inverse de notre outil de DA. Nous montrons les benefices que l'on peut attendre sur des codes reels.
404

Restauration de sources radioastronomiques en milieu radioélectrique hostile : Implantation de détecteurs temps réel sur des spectres dynamiques.

Dumez-Viou, Cedric 28 September 2007 (has links) (PDF)
L'étude de l'Univers est effectuée de façon quasi-exclusive grâce aux ondes électromagnétiques. La radioastronomie qui étudie la bande radio du spectre est couramment obligée d'observer hors de ses bandes protégées. Il faut donc pouvoir observer des sources dans des bandes où les émissions des systèmes de télécommunication sont souvent proches et donc très puissantes.<br /><br />Les travaux de cette thèse ont eu pour but de développer et d'implanter des méthodes temps réel de traitements numériques visant à atténuer les interférences ambiantes afin de restaurer les radiosources naturelles lors d'observation avec une antenne unique sans informations a priori.<br />Le cœur de ces traitements est basé sur l'estimation de la moyenne d'un échantillon suivant une loi du Khi-2 en présence de points aberrants.<br />Un récepteur numérique multi-instruments à grande dynamique élaboré à la station de radioastronomie de Nançay a servi de banc de test à ces divers algorithmes.<br /><br />La bande corrompue par Iridium est maintenant observable et les sources HI situées dans la bande allouée aux radars sont de nouveau<br />accessibles. Les observations du Soleil et de Jupiter effectuées en<br />bande décamétrique sont maintenant de bien meilleure qualité.<br />Un algorithme a été développé pour configurer le récepteur en tant que détecteur et enregistreur rapide d'évènements très brefs (<100 ms) en milieu parasité. Il est aujourd'hui utilisé pour l'enregistrement de structures fines Joviennes.
405

Etude des dysfonctionnements dans la prise de décision. Application au choix d'acteur.

Stal-Le Cardinal, Julie 10 July 2000 (has links) (PDF)
En adéquation avec l'objectif général de la productique, l'optimisation du triptyque qualité, coût, délai, nous proposons ici une modélisation des dysfonctionnements dans le processus de prise de décision. Pour cela, nous considérons l'entreprise comme un réseau d'acteurs pouvant prendre des décisions en vue d'atteindre un objectif général.<br />Nous proposons un premier modèle : la DTL ou Decision Time Line. La DTL représente toute décision comme un processus de prise de décision, qui suit une ligne de vie. L'enchaînement d'un certain nombre d'étapes peut se dérouler dans des ordres différents à partir d'une question posée jusqu'à la transmission de la réponse à l'interlocuteur.<br />Un deuxième modèle permet de représenter et de quantifier l'impact des dysfonctionnements dans le processus de décision. Un espace de représentation des dysfonctionnements, au sein de la DTL, est proposé. Il s'agit de décomposer tout dysfonctionnement en dysfonctionnements élémentaires, d'identifier les étapes de la DTL ayant généré les dysfonctionnements et de mesurer les écarts induits. Nous considérons, ici, la décision de façon globale et la modélisation proposée est applicable à tout type de prise de décision.<br />L'étude des dysfonctionnements dans les processus de prise de décision se concrétise, ensuite, par une application au choix d'acteur et par une présentation des outils développés pour faciliter ce type particulier de décision. Ces outils sont regroupés sous le nom de SACADO : Système d'Aide au Choix d'Acteur et aux Décisions d'Organisation. SACADO propose un processus cible à suivre pour réduire les risques de dysfonctionnements. Cette méthode permet également, pour un dysfonctionnement donné, d'en analyser les causes potentielles et d'en déduire des préconisations. Enfin, les dysfonctionnements analysés par SACADO alimentent l'analyse globale de l'organisation d'une entreprise.<br />Finalement, une application industrielle au sein de deux sites du groupe Vallourec a permis une première validation de la méthode mise au point. Elle a permis de confirmer que SACADO répond à un réel besoin industriel.
406

Etude expérimentale du décollement sur profils d'aile : analyse et contrôle

Bourgois, Sébastien 22 December 2006 (has links) (PDF)
Le décollement de la couche limite est un phénomène aérodynamique, généralement indésirable sur un profil d'aile en incidence, qui occasionne une diminution des performances de la voilure.<br />De nombreux auteurs ont montré qu'il est possible d'éliminer ou, le cas échéant, de retarder l'apparition des décollements en implantant des dispositifs de contrôle appelés « actionneurs » sur l'aile.<br />Des actionneurs, de type fluidique, ont été comparativement utilisés sur deux configurations expérimentales : un profil épais symétrique NACA 0015, siège de décollements de type « bord de fuite » et un profil symétrique ONERA D caractérisé par des décollements de type « bord d'attaque ». Placés en proche paroi d'extrados, les actionneurs se présentent sous la forme d'injecteurs discrets ou sous la forme d'une fente de faible épaisseur, le soufflage étant stationnaire ou instationnaire.<br />Nous avons étudié l'influence de différents paramètres (géométrie des actionneurs, fréquence et intensité de l'excitation...). Il a été possible de mettre en évidence une modification profonde des structures de l'écoulement sous les effets du contrôle qui favorise le processus de recollement de la couche limite et aboutit à une augmentation de la portance et à une réduction considérable de la traînée.<br />Cette étude consacrée à la validation de l'efficacité de différents modes d'action et à la compréhension des mécanismes de recollement est actuellement complétée par une approche instationnaire du contrôle (quantification des temps de réponse caractéristiques des actionneurs et de l'écoulement). Elle constitue la première étape vers la mise en place sur les voilures, à plus long terme, d'un système de contrôle rétroactif.
407

Fragilisation du polypropylène induite par oxydation

Fayolle, Bruno 06 November 2001 (has links) (PDF)
Nous avons étudié le vieillissement thermooxydant de films de polypropylène isotactique (iPP) dans l'intervalle de température 70-150°C par des méthodes classiques (spectrométrie IR, essai de traction) et moins courantes (mesure de masse molaire), voire relativement nouvelles (travail essentiel de rupture EWF). Il apparaît que le polymère, initialement fortement ductile, adopte un comportement fragile (en traction) alors que le phénomène d'oxydation est encore indétectable par IR. Cette fragilisation, correspondant à une localisation de la déformation plastique, apparaît comme une conséquence d'un processus de coupure de chaîne de type aléatoire : la transition ductile-fragile se manifeste lorsque la masse molaire en poids atteint une valeur critique M'C=200 kg/mol, ce qui est compatible avec les données disponibles sur des échantillons vierges de masse molaire variable. Ce résultat est donc difficile à concilier avec les théories, courantes dans la littérature, selon lesquelles la fragilisation serait attribuable à la formation de défauts induits par oxydation hétérogène à petite échelle. L'analyse approfondie des résultats suggère au contraire que l'oxydation est homogène (dans la phase amorphe) et affecte la connectivité interlamellaire dont on connaît le rôle crucial dans le processus de déformation plastique. Partant de ce constat, nous avons élaboré un modèle cinétique rendant compte de l'évolution de la structure, en particulier de la masse molaire, dans lequel un couplage réaction-diffusion permet de prédire la distribution des produits d'oxydation à tout instant. Nous avons utilisé ce modèle pour prédire la durée de vie, le critère de fin de vie étant la fragilisation, soit M=M'C. La confrontation avec l'expérience (allure des courbes cinétiques, valeur des durées de vie, profil de distribution des produits d'oxydation dans l'épaisseur) démontre les capacités prédictives du modèle dont la caractéristique principale est qu'il ne comporte pas de paramètre empirique.
408

Modèles biomécaniques et physio-pathologiques pour l'analyse d'images cérébrales

Clatz, Olivier 10 February 2006 (has links) (PDF)
Les travaux présentés dans ce manuscrit proposent plusieurs contributions dans le développement de modèles algorithmiques du cerveau et de ses pathologies. Le point commun entre tous ces travaux est un modèle dit de "seconde génération", spécifique à la géométrie du patient et capable de simuler le comportement mécanique du cerveau. La première partie de cette thèse présente l'utilisation de ce modèle pour l'estimation des déformations du cerveau au cours de deux opérations : l'électrostimulation pour le traitement de la maladie de Parkinson et la résection de tumeur. Dans le premier cas, le pouvoir prédictif du modèle est utilisé pour simuler les déplacements du cerveau à partir des données disponibles avant l'opération. Dans le second, le modèle est utilisé conjointement avec de l'imagerie par résonance magnétique per-opératoire pour estimer les déplacements observés dans les images. Dans la deuxième partie, nous abordons une classe de modèles faisant intervenir les pathologies cérébrales. Ainsi nous proposons un nouveau modèle 3D d'hydrocéphalie consécutive à une hémorragie méningée. Ce modèle permet d'introduire sous la forme d'un couplage entre modèles scalaires et volumiques une composante temporelle dynamique nécessaire en simulation de chirurgie. Ensuite, nous nous intéressons à la modélisation de la croissance du glioblastome. L'évolution de la densité de cellules tumorales dans le parenchyme est simulée par une équation de réaction-diffusion anisotrope prenant en compte la direction des fibres. Enfin, une nouvelle relation d'équilibre est introduite pour modéliser le couplage entre la densité de cellules tumorales et le modèle mécanique.
409

Etude de la diffraction de la détonation des mélanges C2H2/O2 stoechiometriques dilues par l'argon

Guilly, V. 25 January 2007 (has links) (PDF)
La détonabilité d'un mélange réactif peut être évaluée par la mesure du diamètre critique de diffraction dc de la détonation d'un tube l'espace libre. dc est relié la largeur de la cellule de détonation (a) par dc = kca, ou kc = 13 pour les mélanges combustible-O2. dans le but d'expliquer l'augmentation de kc avec la dilution du mélange par un gaz inerte, une étude expérimentale et numérique a été menée sur la diffraction de la détonation du mélange C2H2+2,5O2+z Ar (0 inf ou égal à z inf ou égal à 15) dans des cônes d'ouverture comprise entre 10 et 180. L'utilisation d'un schéma détaillé de cinétique chimique a montré que diluer un mélange réactif avec un inerte contribue à retarder la libération d'une partie de l'énergie chimique. Un modèle de cinétique réduit en 2 étapes a été développé et utilisé dans des simulations2D. L'accord entre les résultats expérimentaux et numériques révèle le rôle fondamental de la loi de libération de l'énergie chimique dans les processus stationnaire et transitoire des détonations.
410

Modélisation par la méthode des éléments discrets d'impacts de blocs rocheux sur structures de protection type merlons

Plassiard, Jean-Patrick 07 December 2007 (has links) (PDF)
Les ouvrages type merlons, construits pour se prémunir contre les chutes de blocs rocheux, sont dimensionnés en pratique au moyen de méthodes empiriques. Afin d'optimiser la géométrie de ces constructions leur modélisation a été entreprise. La méthode aux éléments discrets est utilisée en raison des fortes restructurations du remblai constitutif pouvant intervenir durant un impact. A partir d'un état de l'art, les caractéristiques mécaniques du remblai sont évaluées. La calibration des paramètres quasi-statiques du matériau modèle est alors réalisée par simulations d'essais triaxiaux. Les paramètres gérant le comportement dynamique sont calibrés à leur tour par simulations d'impacts à énergies modérées. Le remblai modèle obtenu est validé par la modélisation d'essais d'impacts expérimentaux dont la gamme d'énergies correspond à celle rencontrée pour les merlons. Il est alors utilisé pour simuler des impacts sur merlons. Plusieurs tailles d'ouvrages sont étudiées, répondant chacune à des gammes d'énergies différentes. Une analyse paramétrique portant sur divers aspects du bloc et de l'ouvrage est réalisée. Elle permet de définir les variables principales gérant le phénomène d'impact. La variation couplée de ces dernières est réalisée afin d'établir leur influence sur la capacité du merlon à contenir le bloc.

Page generated in 0.0785 seconds