• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1857
  • 935
  • 762
  • 17
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3576
  • 3545
  • 2361
  • 1799
  • 1786
  • 1775
  • 811
  • 798
  • 797
  • 789
  • 789
  • 789
  • 788
  • 646
  • 645
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Dynamique non-linéaire dans les microcavités laser tridimensionnelles à base de polymères : aspects physiques et technologiques

Lafargue, Clément 18 September 2013 (has links) (PDF)
Cette thèse est consacrée à l'étude fondamentale et au développement de micro-sources lasers en matériaux organiques, susceptibles de débouchés dans les technologies de l'information et les biotechnologies. Nous avons exploré l'aspect tridimensionnel (3D) de ces lasers, tant en termes de fabrication que de caractérisation. Concernant la fabrication, nous avons fait évoluer la géométrie des microlasers, auparavant quasi-bidimensionnelle (2D, issue de films fins) vers une géométrie 3D (comme des cubes). Des procédés de lithographie UV épaisse ou d'écriture directe au laser par photo-polymérisation à 2 photons ont été adaptés pour réaliser des formes sur mesure de micro-résonateurs optiques incluant un colorant. Afin d'étudier l'émission très anisotrope de ces lasers, nous avons conçu et développé un outil original, appelé scanner à angle solide (SAS), permettant de collecter l'émission d'un microlaser dans toutes les directions du demi-espace qui le surplombe, avec une grande précision. Le SAS a permis de constater que les microlasers 2D émettent principalement hors-plan. Un modèle a été développé pour expliquer cet effet et émettre des prédictions. D'autre part, différentes formes de microlasers 2D ont été analysées, à partir de leurs directions et spectres d'émission, grâce au formalisme semi-classique des orbites périodiques. En particulier, une orbite diffractive a été observée dans les triangles, ce qui ouvre la voie à une étude systématique de la diffraction par un coin diélectrique. Nous apportons également une explication à la directionalité de l'émission par des microlasers carrés. Pour finir, les premières caractérisations 3D de micro-lasers 3D ont été réalisées.
322

Interaction champ électrique cellule : conception de puces microfluidiques pour l'appariement cellulaire et la fusion par champ électrique pulsé

Hamdi, Feriel 29 November 2013 (has links) (PDF)
La fusion cellulaire est une méthode de génération de cellules hybrides combinant les propriétés spécifiques des cellules mères. Initialement développée pour la production d'anticorps, elle est maintenant aussi investiguée pour l'immunothérapie du cancer. L'électrofusion consiste à produire ces hybrides en utilisant un champ électrique pulsé. Cette technique présente de meilleurs rendements que les fusions chimiques ou virales, sans introduire de contaminant. L'électrofusion est actuellement investiguée en cuve d'électroporation où le champ électrique n'est pas contrôlable avec précision et le placement cellulaire impossible, produisant de faibles rendements binucléaires. Afin d'augmenter le rendement et la qualité de fusion, la capture et l'appariement des cellules s'avèrent alors nécessaires.Notre objectif a été de développer et de réaliser des biopuces intégrant des microélectrodes et des canaux microfluidiques afin de positionner et d'apparier les cellules avant leur électrofusion. Une première structure de piégeage se basant sur des plots isolants et l'utilisation de la diélectrophorèse a été réalisée. Afin d'effectuer des expérimentations sous flux, une méthode de scellement des canaux, biocompatible et étanche a été développée. Puis, le milieu d'expérimentation a été adapté pour l'électrofusion. En confrontant les résultats des expériences biologiques aux simulations numériques, nous avons pu démontrer que l'application d'impulsions électriques induisait la diminution de la conductivité cytoplasmique. Nous avons ensuite validé la structure par l'électrofusion de cellules. Un rendement de 55% avec une durée de fusion membranaire de 6 s a été obtenu. Dans un second temps, nous avons proposé deux microstructures de piégeage pour l'électrofusion haute densité. La première se base sur un piégeage fluidique, alors que la seconde, utilise ladiélectrophorèse sans adressage électrique à l'aide de plots conducteurs. Jusqu'à 75% des cellules fusionnent dans cette dernière structure. Plus de 97% des hybridomes produits sont binucléaires. Le piégeage étant réversible, les hybridomes peuvent ensuite être collectés pour des études ultérieures.
323

Diffusion d'un faisceau modelé par une sphère excentrique et propriétés du sphéroïde

Wang, Jiajie 24 September 2011 (has links) (PDF)
Deux pièces de travail sont inclus dans cette thèse. La première partie analyse l'interaction d'une sphère excentrique avec un faisceau incident quelconque formé dans le cadre de généralisé de la théorie de Lorenz-Mie (generalized Lorenz-Mie theory, GLMT). Distributions de contrôle interne, près de la surface, loin des champs dispersés zone ainsi que le comportement de la morphologie dépendant résonances (MDR) dans une sphère excentrique éclairée par un faisceau focalisé guassien sont analysés. Dans la seconde partie, en utilisant l'EBCM, les propriétés de diffusion de lumière autour de l'angle arc pour un ensemble de sphéroïdes dans des orientations aléatoires éclairé par une onde plane sont étudiés. En comparant les paramètres extraits de ces paramètres originaux utilisés dans les expériences de simulation, la sensibilité de la technique d'arc de la sphéricité des gouttelettes non est quantifié.
324

Critère de propagation et d'arrêt de fissure de clivage dans un acier de cuve REP

Bousquet, Amaury 09 January 2013 (has links) (PDF)
L'objectif de cette thèse est de comprendre les micro-mécanismes physiques de propagation et d'arrêt de fissure de clivage dans l'acier de cuve 16MND5 et de proposer un modèle de prédiction robuste et physiquement fondé, en s'appuyant sur une campagne d'essais de rupture fragile sur éprouvettes de laboratoire finement instrumentées, associée à la modélisation numérique de ces essais. Dans un premier temps, des expériences ont été menées sur des éprouvettes CT25 de différentes épaisseurs à cinq températures (-150°C, -125°C, -100°C, -75°C, -50°C). Des trajets de fissures rectilignes et branchées (deux fissures se développant de manière quasi-symétrique) ont été observés. Pour estimer la vitesse de propagation, une caméra ultra-rapide a été utilisée, associée à la mise au point d'un protocole expérimental permettant d'observer la face de l'éprouvette dans l'enceinte thermique, sans givrage. Des observations à 500 000 images.s-1 ont permis de caractériser finement la vitesse instantanée de la fissure sur le ligament complet de la CT (~25 mm). En parallèle, pour pouvoir analyser les essais et l'impact de la viscosité sur la réponse mécanique autour de la fissure, le comportement élasto-viscoplastique du matériau a été étudié jusqu'à une vitesse de déformation de 104 s-1 pour les températures étudiées. La méthode des éléments finis étendus (X-FEM) a été utilisée dans le code de calcul CAST3M pour modéliser la propagation de fissure. Les simulations numériques associent l'approche locale de la rupture en dynamique non linéaire et un critère de propagation en contrainte critique de type RKR à une distance caractéristique. Les travaux réalisés ont permis de confirmer la forme du critère proposé par Prabel à -125°C, et d'identifier les dépendances de ce critère à la température et à la vitesse de déformation. A partir d'analyses numériques en 2D et 3D, un critère multi-température fonction croissante de la vitesse de déformation est proposé. Des modélisations prédictives ont permis de valider le critère sur deux géométries d'éprouvettes (CT et anneau) en mode I à différentes températures. Des observations MEB et des analyses 3D au microscope optique montrent que le mécanisme de rupture est le clivage associé à des zones de cisaillement ductile entre les différents plans de fissuration. L'étude de la fraction surfacique des marches de cisaillement et des contraintes de fermeture associées tend à justifier le critère mis en place. Un modèle analytique est proposé permettant de justifier le critère déduit des modélisations numériques. Ce modèle considère que les ligaments retiennent la lèvre de la fissure et induisent donc des contraintes de fermeture au niveau de la pointe de fissure qu'il faut compenser pour atteindre la contrainte de clivage effective en pointe de fissure. Cette résistance des ligaments est directement reliée à la loi de comportement du matériau et justifie la dépendance du critère de rupture identifié à la vitesse de déformation. Enfin, les branchements de fissure ont été analysés via le dépouillement des vidéos obtenues avec la caméra rapide qui mettent en évidence un amorçage initial rectiligne, puis un amorçage de fissures multiples de part et d'autre du plan de fissure qui conduisent à l'arrêt de la fissure initiale, l'une de ces fissures 'secondaires' conduisant ensuite à la rupture de l'éprouvette. Les rôles essentiels de l'épaisseur et du chargement dans ce mécanisme de branchement sont soulignés. L'augmentation de l'épaisseur réduit la fréquence d'apparition de ce mécanisme et finit même par l'annuler. Logiquement l'intensité du chargement doit être suffisamment importante pour créer cette zone plastique étendue : les essais qui présentent une propagation rectiligne sont les essais pour lesquels les chargements à l'amorçage sont les plus faibles.
325

Programmer le parallélisme avec des futures en Heptagon un langage synchrone flot de données et étude des réseaux de Kahn en vue d'une compilation synchrone

Gérard, Léonard 25 September 2013 (has links) (PDF)
Les langages synchrones ont été fondés pour modéliser et implémenter les systèmes réactifs temps-réels critiques. Avec la complexité toujours croissante des systèmes contrôlés, la vitesse d'exécution devient un critère important. Nous sommes donc à la recherche d'une exécution parallèle, combinant efficacité et sûreté.Les langages synchrones ont toujours intégré la notion de parallélisme, mais ce, pour l'expressivité de la modélisation. Leurs compilations visent principalement les circuits ou la génération de code séquentiel. Tous ont une sémantique formelle, qui rend possible la distribution correcte du code. Mais la préservation de cette sémantique peut être un obstacle à l'efficacité du code généré, particulièrement s'il est nécessaire de préserver une notion d'instant global au système.Le modèle sémantique qui nous intéresse est celui des réseaux de Kahn. Ces réseaux modélisent des calculateurs distribués, communiquant au travers de files de taille non bornée. Dans ce cadre, la distribution ne demande aucune communication ni synchronisation supplémentaire. En considérant l'histoire des files de communication, la sémantique de Kahn permet de s'abstraire de l'exécution effective, tout en garantissant le déterminisme du calcul. Pour cela, chaque nœud du réseau doit avoir une sémantique fonctionnelle continue.Le langage que nous développons est Heptagon, un langage synchrone fonctionnel du premier ordre, déscendant de Lustre. Son compilateur est un prototype universitaire, apparenté à l'outil industriel Scade. Grâce à sa sémantique de Kahn, la distribution d'un programme Heptagon ne pose pas de question, son efficacité beaucoup plus.L'efficacité requiert de minimiser les synchronisations. Cela revêt deux aspects non indépendants. Avoir un découplage suffisant des calculs : il y a des délais dans les dépendances entre calculs. Avoir une granularité importante des calculs : un fort ratio temps de calcul sur fréquence de communication. Or la sémantique synchrone et les horloges d'un programme Heptagon reflètent exactement l'inverse. Elles permettent au programmeur de se contenter d'un découplage d'un instant et à chaque instant, au maximum une valeur est calculée. De plus, les instants sont typiquement courts, pour assurer que le système réagit rapidement.Des précédents travaux sur le sujet, nous tirons deux constats.Le premier est que nous souhaitons le contrôle du parallélisme par le programmeur, directement dans le code source. Il doit pouvoir maîtriser à quels instants il y a communication ou synchronisation. La solution que nous proposons dans ce manuscrit est l'utilisation des futures dans Heptagon. Ils fournissent ce pouvoir au programmeur, tout en restant des annotations qui peuvent être supprimées sans changer la sémantique dénotationnelle du programme.Le deuxième constat est que la question de la granularité des calculs est une question profonde, touchant en particulier aux questions de dépendance de données, de choix des horloges et de compilation modulaire. Heptagon, comme ses parents, restreint les réseaux de Kahn qui peuvent être écrits, de telle sorte que ces trois questions se traitent séparément. Pour mieux comprendre le lien entre ces éléments, nous revenons aux réseaux de Kahn. Notre principal résultat est la définition de la sous-classe des réseaux ordonnés réactifs. Ceux-ci sont les seuls pour lesquels nous pouvons décrire modulairement le comportement avec des horloges, sans restreindre les contextes d'appels. Ces réseaux ont une signature d'horloge en forme normale, qui maximise la granularité. Pour l'exprimer, nous introduisons les horloges entières, décrivant la communication de plusieurs valeurs en un seul instant. Nous appliquons ensuite nos résultats pour voir sous un nouveau jour Heptagon, Signal, les politiques des objets de Lucid Synchrone, mais aussi proposer une analyse pleinement modulaire de Lucy-n langage synchrone le plus fidèle aux réseaux de Kahn.
326

Caractérisation et modélisation du comportement mécanique des composites tressés 3D : Application à la conception de réservoirs GNV

Mbacke, Mamadou Abdoul 20 December 2013 (has links) (PDF)
Cette thèse porte sur l'étude du comportement mécanique et l'endommagement d'un composite tressé 3D, utilisé pour fabriquer des réservoirs multiformes destinés à l'industrie automobile. L'analyse du matériau se base sur une approche expérimentale et une approche numérique. Sur le plan expérimental, des essais de caractérisation ont permis d'identifier l'ensemble des modules d'élasticité nécessaires pour établir la matrice de rigidité du matériau. De même, des essais expérimentaux ont permis d'étudier le processus d'endommagement du matériau en utilisant deux méthodes de suivie. La première consiste à utiliser une caméra munie d'un zoom pour observer les mécanismes d'endommagement qui se créent au cours du chargement. La deuxième méthode, quant à elle, utilise la technique de l'émission acoustique pour détecter en temps réel les mêmes phénomènes. Le couplage des deux méthodes a permis de dresser la chronologie de l'apparition de ces mécanismes d'endommagement. Sur le plan numérique, une analyse multiéchelle a permis d'évaluer l'influence des fissurations transversales et des décohésions d'interface sur les propriétés mécaniques du matériau. Pour cela, une cellule de base caractéristique de la microstructure a été modélisée. Par une technique d'homogénéisation appliquée à différentes échelles du matériau, les propriétés macroscopiques du composite ont été déterminées à partir de celles de ses constituants de base. Par la suite, des défauts sont introduits de manière discrète sur la même cellule de base. Par le même processus d'homogénéisation à l'échelle mésoscopique, les propriétés du matériau endommagé sont déterminées et comparées à celles du matériau non endommagé. Enfin, un pré-dimensionnement des réservoirs a été effectué en utilisant des critères de rupture classiques pour validation.
327

Reliability Based Design Including Future Tests and Multi-Agent Approaches

Villanueva, Diane 13 May 2013 (has links) (PDF)
The initial stages of reliability-based design optimization involve the formulation of objective functions and constraints, and building a model to estimate the reliability of the design with quantified uncertainties. However, even experienced hands often overlook important objective functions and constraints that affect the design. In addition, uncertainty reduction measures, such as tests and redesign, are often not considered in reliability calculations during the initial stages. This research considers two areas that concern the design of engineering systems: 1) the trade-off of the effect of a test and post-test redesign on reliability and cost and 2) the search for multiple candidate designs as insurance against unforeseen faults in some designs. In this research, a methodology was developed to estimate the effect of a single future test and post-test redesign on reliability and cost. The methodology uses assumed distributions of computational and experimental errors with re-design rules to simulate alternative future test and redesign outcomes to form a probabilistic estimate of the reliability and cost for a given design. Further, it was explored how modeling a future test and redesign provides a company an opportunity to balance development costs versus performance by simultaneously designing the design and the post-test redesign rules during the initial design stage.The second area of this research considers the use of dynamic local surrogates, or surrogate-based agents, to locate multiple candidate designs. Surrogate-based global optimization algorithms often require search in multiple candidate regions of design space, expending most of the computation needed to define multiple alternate designs. Thus, focusing on solely locating the best design may be wasteful. We extended adaptive sampling surrogate techniques to locate multiple optima by building local surrogates in sub-regions of the design space to identify optima. The efficiency of this method was studied, and the method was compared to other surrogate-based optimization methods that aim to locate the global optimum using two two-dimensional test functions, a six-dimensional test function, and a five-dimensional engineering example.
328

Fretting et fretting-fatigue à haute température d'alliages de titane revêtus

Van Peteghem, Benjamin 19 September 2013 (has links) (PDF)
Les endommagements provoqués par le fretting sont multiples et peuvent causer de sévères disfonctionnements. Il est donc nécessaire d'étudier le fretting, en particulier dans le cas des alliages de titanes fréquemment employés dans l'aéronautique. Les endommagements générés par fretting peuvent être de l'usure, de la fissuration ou bien une combinaison des deux. La distinction entre ces deux comportements entraine régulièrement une dichotomie dans le choix des sujets traités. L'étude présentée ici fait le choix de rassembler en une seule démarche les études d'usure et de fissuration. Cette approche permet d'avoir une vision d'ensemble du comportement en fretting et fretting-fatigue d'un contact aube-disque dans un compresseur haute pression. Afin de respecter les contraintes industrielles, l'étude est réalisée à haute température (450°C) avec un contact plan sur plan revêtu. Pour réaliser cette étude, un dispositif expérimental original a été mis en place et validé. Les premiers résultats tribologiques montrent un effet majeur de la pression de contact sur le comportement tribologique de l'interface. Le coefficient de frottement du traitement de surface étudié diminue quand la pression de contact augmente. Une hypothèse d'expulsion du lubrifiant solide inclus dans le dépôt est proposée pour expliquer ce phénomène. Les résultats d'usure et notamment les analyses physicochimiques montrent un comportement sacrificiel du dépôt qui est usé préférentiellement au contre-corps. Cette caractéristique est bénéfique car dans l'application industrielle le contre-corps (le disque) doit être protégé en priorité par rapport à la pièce revêtue (l'aube). Les résultats d'usure dans la configuration industrielle sont complétés par une étude plus fondamentale mettant en évidence l'influence de la fréquence et du cycle de chargement du contact. La morphologie des traces d'usure est modifiée par ces deux facteurs, et le taux d'usure énergétique est également modifié. L'étude de la fissuration est menée en fretting simple et en fretting-fatigue. La fissuration du contre-corps non revêtu est modifiée par l'application d'un dépôt sur le poinçon revêtu. L'effet est principalement observable sur la longueur maximale de fissure, qui est divisée par deux dans le cas revêtu. Les résultats en fretting-fatigue sont également modifiés par la présence du revêtement, dont l'effet est plus présent pour les grands nombre de cycles. Enfin, une représentation des résultats sous forme de diagramme polaire normalisé est proposée afin de donner une image claire de l'ensemble des performances du dépôt.
329

Nouveaux points de vue sur la classification hiérarchique et normalisation linguistique pour la segmentation et le regroupement en locuteurs

Bozonnet, Simon 02 May 2012 (has links) (PDF)
Face au volume croissant de données audio et multimédia, les technologies liées à l'indexation de données et à l'analyse de contenu ont suscité beaucoup d'intérêt dans la communauté scientifique. Parmi celles-ci, la segmentation et le regroupement en locuteurs, répondant ainsi à la question 'Qui parle quand ?' a émergé comme une technique de pointe dans la communauté de traitement de la parole. D'importants progrès ont été réalisés dans le domaine ces dernières années principalement menés par les évaluations internationales du NIST. Tout au long de ces évaluations, deux approches se sont démarquées : l'une est bottom-up et l'autre top-down. L'ensemble des systèmes les plus performants ces dernières années furent essentiellement des systèmes types bottom-up, cependant nous expliquons dans cette thèse que l'approche top-down comporte elle aussi certains avantages. En effet, dans un premier temps, nous montrons qu'après avoir introduit une nouvelle composante de purification des clusters dans l'approche top-down, nous obtenons des performances comparables à celles de l'approche bottom-up. De plus, en étudiant en détails les deux types d'approches nous montrons que celles-ci se comportent différemment face à la discrimination des locuteurs et la robustesse face à la composante lexicale. Ces différences sont alors exploitées au travers d'un nouveau système combinant les deux approches. Enfin, nous présentons une nouvelle technologie capable de limiter l'influence de la composante lexicale, source potentielle d'artefacts dans le regroupement et la segmentation en locuteurs. Notre nouvelle approche se nomme Phone Adaptive Training par analogie au Speaker Adaptive Training
330

Abstraction et traitement de masses de données 3D animées

Buchholz, Bert 20 December 2012 (has links) (PDF)
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées.

Page generated in 0.0333 seconds