• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1327
  • 243
  • 219
  • 48
  • 12
  • 6
  • 6
  • 5
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 2077
  • 1964
  • 1953
  • 390
  • 325
  • 197
  • 140
  • 136
  • 127
  • 124
  • 122
  • 116
  • 115
  • 115
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Image processing for on-line analysis of electron microscope images : automatic Recognition of Reconstituted Membranes

Karathanou, Argyro 25 November 2009 (has links) (PDF)
The image analysis techniques presented in the présent thesis have been developed as part of a European projeet dedicated to the development of an automatic membrane protein crystallization pipeline. A large number of samples is simultaneously produced and assessed by transmission electron microscope (TEM) screening. Automating this fast step implicates an on-fine analysis of acquired images to assure the microscope control by selecting the regions to be observed at high magnification and identify the components for specimen characterization.The observation of the sample at medium magnification provides the information that is essential to characterize the success of the 2D crystallization. The resulting objects, and especially the artificial membranes, are identifiable at this scale. These latter present only a few characteristic signatures, appearing in an extremely noisy context with gray-level fluctuations. Moreover they are practically transparent to electrons yielding low contrast. This thesis presents an ensemble of image processing techniques to analyze medium magnification images (5-15 nm/pixel). The original contribution of this work lies in: i) a statistical evaluation of contours by measuring the correlation between gray-levels of neighbouring pixels to the contour and a gradient signal for over-segmentation reduction, ii) the recognition of foreground entities of the image and iii) an initial study for their classification. This chain has been already tested on-line on a prototype and is currently evaluated.
132

INTEGRATION DES ACIERS MAGNETIQUES EN ELECTROTECHNIQUE

Waeckerle, Thierry 21 January 1997 (has links) (PDF)
La rencontre des aciers électriques et de l'électrotechnique est déjà une vieille histoire d'amour (plus de cent ans) avec de grands moments tels que le feuilletage des noyaux magnétiques et l'avènement des tôles à grains orientés pour l'aspect matériau, la découverte des mécanismes réglant l'aimantation des matériaux magnétiques et la formulation de modèles de comportement magnétique de plus en plus proche du matériau réel (tels les modèles développés par. Bertotti) pour l'aspect modélisation des matériaux. On pourrait alors croire que tout est fait et qu'une telle somme de recherches n'a pu que déboucher en pratique sur une optimisation "idéale" des dispositifs électrotechniques. En fait, il n'en est rien et beaucoup reste à faire pour intégrer de façon optimale et générale un acier électrique dans un dispositif électrotechnique ; les raisons de cette difficulté à optimiser un matériau dans une application donnée sont les suivantes : si la principale raison de très large utilisation des aciers électriques laminés est leur forte aimantation à saturation (2-2,15 T) alliée à un faible coût (quelques F/kg) et une grande facilité de production et d'utilisation, en revanche leurs fortes anisotropies magnétocristaïline et magnétostrictive sont des points faibles qui contrôlent dans le même rapport l'amplitude des phénomènes d'hystérésis, de non linéarité et d'anisotropie de la loi d'aimantation et dans certains cas les phénomènes de vibration. L'amplitude de ces caractéristiques intrinsèques aux aciers électriques à des conséquences déterminantes sur leur intégration dans les dispositifs : du fait de l'anisotropie, la seule façon d'améliorer sensiblement les performances magnétiques est de mieux contrôler la texture du matériau. Cela a été bien illustré par le développement des tôles G.O. pour transformateur : la texture de Goss qui y règne, est en effet avec la texture {100} <001> dite "cubique", la texture idéale pour optimiser un transformateur de puissance. En revanche, dans la plupart des autres cas d'application électrotechnique, le matériau idéal (c'est-à-dire souvent la texture) este à créer : quoiqu'en général ce matériau idéal soit bien cerné, c'est le procédé industriel de fabrication qui est toujours limitant. Les cas des aciers électriques pour machines tournantes et des tôles magnétiques pour utilisation en moyenne fréquence sont les 2 principaux axes de recherche de matériau approprié en électrotechnique, et je m'y suis donc attaché sous l'angle de la texture, principale voie d'amélioration potentielle. L'association des caractères affirmés de non linéarité, anisotropie et hystérésis a pour autre conséquence importante de rendre le matériau très complexe sur le plan de son comportement magnétique, et donc aussi sur le plan de la prédiction de celui-ci. En particulier, les hypothèses l'isotropie, de linéarité et d'univocité de la loi d'aimantation sont trop grossières pour pouvoir représenter correctement le comportement du matériau. Or la conception et l'optimisation des dispositifs électrotechniques procèdent de plus en plus par la modélisation électromagnétique ; celle-ci, pour accroître sa pertinence, s'appuie tout autant sur le développement d'outils, de méthodes et de moyens de calculs que sur l'intégration dans ses codes de modèles plus précis. La conception de modèles de comportement magnétique plus pertinents se situe à ce niveau et fait suite à un réel besoin e l'activité du L.E.G. en modélisation par éléments finis. Dans cette logique, je me suis donc attaché à réer et développer une activité de conception de modèles de comportement magnétique au sein du L.E.G.
133

Réseaux de capteurs pour l'assistance aux personnes : conception et développement de mécanismes de fiabilisation

MAINAUD, Bastien 22 July 2010 (has links) (PDF)
Les réseaux de capteurs ont créé un domaine de recherche très intéressant avec un champs d'applications très large. L'assistance aux personnes est notamment une des nombreux champs potentiels. Les contraintes de ce type de réseaux sont nombreuses et nécessitent des mécanismes spécifiques. Les problématiques de consommation d'énergie et de sécurité sont particulièrement importantes et ont fait l'objet de travaux spécifiques. La thématique de l'assistance aux personnes impose notamment des contraintes de robustesse et de fiabilité des communications. Le but de ces travaux de recherche est de définir diverses solutions permettant de répondre à ces problématiques. Ces travaux se décomposent en trois parties. Dans un premier temps, une plate-forme de communications basée sur les réseaux personnels PAN a été définie. Cette plate-forme a été développée et intégrée dans une station de métro Parisienne. Une modélisation de cette plate-forme ainsi qu'une analyse des observations et des résultats issus de cette intégration nous ont permis d'identifier les faiblesses de l'architecture et des technologies mises en œuvre. Dans un deuxième temps, nous avons développé diverses solutions permettant de fiabiliser cette plate-forme. En particulier, nous avons conçu un algorithme d'ordonnancement permettant de réduire la consommation d'énergie dans les réseaux capteurs par l'utilisation d'une analyse sémantique des données. Nous avons ensuite proposé une architecture de sécurité, Tiny 3-TLS, qui permet de sécurisé les communications entre un capteur et une entité située sur un réseau disjoint. Enfin, nous nous sommes intéressés aux communications entre cette plate-forme et les terminaux mobiles. L'aspect fiabilité a en particulier fait l'objet de travaux spécifiques. C'est pourquoi dans un troisième temps, nous avons proposé une solution de routage définissant une nouvelle métrique. Nous avons ensuite proposé un protocole coopératif permettant un apport de fiabilité dans les communications
134

Planification visuelle et interactive d'interventions dans des environnements d'accélérateur de particules émettant des rayonnements ionisants

Fabry, Thomas 30 May 2014 (has links) (PDF)
Les radiations sont omniprésentes. Elles ont de nombreuses applications dans des domaines variés: en médecine, elles permettent de réaliser des diagnostiques et de guérir des patients; en communication, tous les systèmes modernes utilisent des formes de rayonnements électromagnétiques; et en science, les chercheurs les utilisent pour découvrir la composition et la structure des matériaux, pour n'en nommer que quelques-unes. Concrètement, la radiation est un processus au cours duquel des particules ou des ondes voyagent à travers différents types de matériaux. La radiation peut être très énergétique, et aller jusqu'à casser les atomes de la matière ordinaire. Dans ce cas, on parlera de radiation ionisante. Il est communément admis que la radiation ionisante peut être bien plus nocif pour les êtres vivants que la radiation non ionisante. Dans cette dissertation, nous traiterons de la radiation ionisante. La radioactivité est le processus d'émission des radiations ionisantes. Elle existe sous forme naturelle, et est présente dans les sols, dans l'air et notre planète entière est bombardée en permanence de rayonnements cosmiques énergétiques. Depuis le début du XXe siècle, les chercheurs sont capables de créer artificiellement de la matière radioactive. Cette découverte a offert de multiples avancées technologiques, mais a eu également de lourdes conséquences pour l'humanité comme l'ont démontrés les évènements de Tchernobyl et de Fukushima ou d'autres accidents dans le monde médical. Cette dangerosité a conduit à l'élaboration d'un système de radioprotection. Dans la pratique, la radioprotection est principalement mise en œuvre en utilisant la méthode ALARA. Cette méthodologie consiste à justifier, optimiser et limiter les doses reçues. Elle est utilisée conjointement avec les limites légales. Le facteur d'optimisation est contraint par le fait que l'exposition volontaire d'un travailleur aux radiations lors d'une opération doit être plus bénéfique que si aucune intervention humaine n'était conduite dans une situation donnée. Dans le monde industriel et scientifique, il existe des infrastructures qui émettent des rayonnements ionisants. La plupart d'entre elles nécessitent des opérations de maintenance. Dans l'esprit du principe ALARA, ces interventions doivent être optimisées pour réduire l'exposition des travailleurs aux rayonnements ionisants. Cette optimisation ne peut pas être réalisée de manière automatique car la faisabilité des interventions nécessite dans tous les cas une évaluation humaine. La planification des interventions peut cependant être facilitée par des moyens techniques et scientifiques comme par exemple un outil informatique. Dans le contexte décrit ci-dessus, cette thèse regroupe des considérations techniques et scientifiques, et présente la méthodologie utilisée pour développer des outils logiciels pour la mise en œuvre de la radioprotection.
135

Amélioration des performances énergétiques des systèmes de refroidissement industriels : Application aux serveurs informatiques

Mammeri, Amrid 27 May 2014 (has links) (PDF)
Ce travail aborde la problématique des systèmes de refroidissement ou de contrôle thermique industriels. Nous avons particulièrement mis l'accent sur le refroidissement des serveurs informatiques. Une première partie consiste en l'étude des moyens d'amélioration des techniques de refroidissement existantes, tandis que la deuxième partie est une réflexion sur des techniques de refroidissement alternatives potentiellement plus efficaces et répondant aux demandes actuelles du contrôle thermique industriel. Dans le premier chapitre, nous analysons la bibliographie et la théorie relatives aux phénomènes physiques derrière les techniques de refroidissement étudiées. Ensuite, une classification des techniques de refroidissement est proposée en fin de chapitre. Ce chapitre a servi de base pour l'amélioration des technologies de refroidissement existantes et à la réflexion sur de nouvelles techniques plus efficaces. Le second chapitre porte sur l'optimisation d'une plaque froide, destinée au refroidissement des serveurs informatiques, en s'aidant d'un outil numérique et d'essais expérimentaux. Nous avons noté une augmentation des transferts de chaleur dans la plaque froide en utilisant des inserts, notamment ceux en forme de losange disposés en quinconce. A l'inverse, l'utilisation de certains nanofluides en tant que fluides caloporteurs ne semble pas apporter de gain significatif. Dans le troisième chapitre nous détaillons la démarche suivie pour la conception d'un dissipateur de chaleur basé sur une technologie caloducs, destiné au refroidissement des cartes électroniques. En premier lieu, nous présentons le modèle thermohydraulique de dimensionnement d'un caloduc cylindrique ; une étude paramétrique (géométrique, type de fluide,...) nous a permis d'identifier le jeu de paramètres donnant la meilleure performance du caloduc. En second lieu, nous évoquons les tests réalisés sur le dissipateur de chaleur à caloduc qui nous amènent à valider en partie le modèle thermohydraulique développé. Le dernier chapitre porte sur la réalisation et l'étude d'un démonstrateur pour le refroidissement des cartes électroniques par immersion dans un liquide à basse température de saturation. On commence par la mise en place et l'utilisation d'un modèle numérique pour la conception du démonstrateur, puis des tests expérimentaux sont réalisés. Les premiers résultats obtenus en utilisant le SES-36 comme fluide de travail sont assez prometteurs.Mots clés : modélisation, transfert de chaleur, refroidissement, datacenter, liquid-cooling, caloducs, échangeurs, nanofluides, ébullition en vase, simulation numérique
136

Modèles multi-niveaux de prévision des durées de vie en fatigue des structures composites à matrice céramique pour usage en turbomachines aéronautiques

Hemon, Elen 15 November 2013 (has links) (PDF)
L'enjeu actuel pour les industriels de l'aéronautique est de diminuer la consommation en carburant et/ou d'augmenter le rendement des avions. A terme, Safran souhaite remplacer les aubes de turbine, actuellement en superalliage, par des aubes en matériau composite tissé de type SiC/SiBC. Il est alors important de prévoir leurs durées de vie. Ce travail a donc consisté à développer un modèle de durée de vie pour ces composites autocicatrisants. Ces matériaux tissés sont constitués de fibres Nicalon, d'une interphase de pyrocarbone et d'une matrice autocicatrisante multicouche (B4C, SiC et SiBC). La particularité de ces composites est l'oxydation de chaque constituant du matériau en fonction de l'environnement (température, atmosphère sèche ou humide). Le modèle de durée de vie développé offre un compromis entre des temps de calcul réduits, malgré la prise en compte de phénomènes physico-chimiques complexes, et une prévision de la durée de vie suffisamment précise. L'approche retenue est un couplage entre un modèle d'endommagement mécanique et un modèle physico-chimique. Un modèle de durée de vie uniaxial a été proposé afin de justifier les différents couplages nécessaires entre les parties mécanique et physico-chimique mais également pour optimiser les algorithmes de résolution. Ce modèle a permis d'identifier les coefficients pour deux nuances de matériaux. Afin de réaliser des essais de structures, un modèle de durée de vie multiaxial a été proposé et implanté dans le code de calcul ZéBuLoN. Un protocole d'identification a également été proposé dans ce travail même si les essais de caractérisation jusqu'ici réalisés ne sont pas suffisants pour identifier complètement le modèle 3D sur ces matériaux.
137

Plate-forme d'aide à l'éco-conception de systèmes multiphysiques : démarche énergétique pour la validation et la réduction de modèles

Marques, Julien 17 June 2010 (has links) (PDF)
De nos jours, les évolutions technologiques imposent aux ingénieurs de modéliser desphénomènes toujours plus multiphysiques et complexes tout au long du processus dedéveloppement d'un système : le cycle en V. Pour cela, il est primordial d'avoir à disposition desoutils adaptés et performants, afin de réduire les temps de mise sur le marché, tout en obtenantdes produits plus matures et plus économes en énergie. Les travaux présentés ici décrivent lamise en place d'une plate-forme de prototypage virtuel et l'intérêt d'intégrer des considérationsénergétiques dans toutes les étapes de la modélisation. Cette approche permet, par exemple, dequantifier l'efficacité d'un système et de ses composants, et donc d'optimiser au plus tôt le coûténergétique d'une solution technique. Nous avons, dans un second temps, souhaité répondre àla problématique du " modèle le plus adapté ". Après analyse des différentes méthodes deréduction de modèles, nous avons décidé de développer la méthode PEMRA permettant depallier les limitations de la méthode MORA, introduite par Louca et al. en 1997. Les variables depuissance et d'énergie introduites précédemment sont utilisées pour calculer deux nouveauxcritères dans le processus de réduction de modèles, permettant de converger vers un modèleréduit plus simple et plus précis qu'avec la méthode MORA. Nous montrons enfin qu'enchoisissant judicieusement le signal d'excitation et un critère dit de précision temporelle adapté, ilest possible, par une approche innovante à la fois énergétique et fréquentielle, de trouver unmodèle réduit mieux adapté aux exigences imposées par l'utilisateur.
138

Génération rapide d'accélérateurs matériels par synthèse d'architecture sous contraintes de ressources

Prost-Boucle, A. 08 January 2014 (has links) (PDF)
Bien que les FPGA soient très attrayants pour leur performance et leur faible consommation, leur emploi en tant qu'accélérateurs matériels reste marginal. Les logiciels de développement existants ne sont en effet accessibles qu'à un public expert en conception de circuits. Afin de repousser leurs limites, une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée. En appliquant des transformations successives à une solution initiale, le processus converge rapidement et permet de respecter strictement des contraintes matérielles, notamment en ressources. Un logiciel démonstrateur, AUGH, a été construit, et des expérimentations ont été menées sur plusieurs applications reconnues. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques.
139

Contribution à la Modélisation et à l'Optimisation de la Machine Asynchrone Double Alimentation pour des Applications Hydrauliques de Pompage Turbinage

Lugand, Thomas 02 December 2013 (has links) (PDF)
Les centrales hydrauliques de pompage turbinage fonctionnent principalement en utilisant des alternateurs de type synchrone évoluant à vitesse fixe. Cependant, utiliser des alternateurs à vitesse variable et, en particulier, des Machines Asynchrones à Double Alimentation (MADA) apporte des avantages non négligeables : contrôle de la puissance en mode pompe, opération au point de meilleur rendement en mode turbine et plus grande stabilité en cas de perturbation. Cette thèse a pour objectifs la progression des connaissances des phénomènes électromagnétiques régissant le fonctionnement de la MADA et d'établir une démarche en vue de son optimisation. Tout d'abord, un modèle analytique reposant en partie sur la méthode des intégrales de frontière est proposé et validé par simulations éléments finis. Ce modèle analytique prend en compte plusieurs éléments tels que la saturation du circuit magnétique, les harmoniques générés par les bobinages du stator et du rotor mais également les harmoniques dus à la forme non constante de l'entrefer. Ensuite, le modèle est appliqué à l'étude de quatre sujets d'importance pour l'ingénieur électricien : calcul des harmoniques de tension statorique à vide, calcul des pertes fer, calcul des harmoniques de couple et calcul des forces radiales électromagnétiques. Enfin une procédure de dimensionnement de la MADA reposant sur l'optimisation par algorithme génétique est décrite. Cette procédure est appliquée à la transformation d'une machine synchrone existante à pôles saillants en une MADA. Deux cas sont traités : dans un premier temps seul le rotor est remplacé tandis que le stator reste le même, dans un deuxième temps la machine est entièrement redimensionnée.
140

Optimisation de Contrôle Commande des Systèmes de Génération d'Electricité à Cycle de Relaxation

Ahmed, Mariam 28 February 2014 (has links) (PDF)
Le besoin de décarboniser le réseau électrique met l'accent sur la recherche de nouvelles ressources énergétiques renouvelables. Les systèmes de génération d'électricité à cycle de relaxation représentent notamment une classe intéressante de celles-ci. Un tel système doit retrouver périodiquement un état qui permet la production d'énergie, ce qui entraîne un cycle à deux phases : une phase de génération et une phase de récupération qui consomme l'énergie. Un de ces systèmes est celui de traction à base de cerf-volant, appelé le Kite Generator System (KGS). Il s'agit d'une solution proposée pour extraire l'énergie du vent stable et forte dans les hautes altitudes. Son principe de fonctionnement est d'entraîner mécaniquement un générateur électrique au sol en utilisant un ou plusieurs cerfs-volants captifs. Cette thèse porte sur l'optimisation et le contrôle du cycle de relaxation afin de maximiser la puissance moyenne produite par le système. Ainsi que l'Intégration du système sur le réseau électrique ou l'employer pour alimenter une charge isolée.

Page generated in 0.0531 seconds