• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Méthodes de carte auto-organisatrice par mélange de lois contraintes. Application à l'exploration dans les tableaux de contingence textuels

Priam, Rodolphe 17 October 2003 (has links) (PDF)
Cette thèse d'intéresse à l'analyse exploratoire des données multimdimensionnelles souvent qualitatives voire textuelles par des modèles particuliers de carte auto-organisatrice de Kohonen. Il s'agit d'effectuer une classification et une projection simultanées des lignes ou colonnes d'une matrice de données. Le résultat de ces méthodes est une réduction sous la forme d'une surface de régression discrète. Nous étudions plus particulièrement les modèles de mélange de lois de probabilité : les paramètres correspondant aux espérances des vecteurs classés sont contraints en les plaçant aux nœuds d'une grille rectangulaire. Après une présentation de ces méthodes, et des algorithmes d'estimation basés sur l'EM (Expectation - Maximization), nous introduisons essentiellement deux nouvelles approches. La première vise à "généraliser la méthode d'Analyse Factorielle des Correspondances" aux grandes matrices : l'algorithme CASOM est un classifieur naïf de Bayes contraint en un TPEM (Topology Preserving EM) pour tableau de contingence. La seconde consiste en un schéma général d'adaptation des méthodes de segmentation d'image en carte auto-organisatrice. Pour l'illustrer, nous modifions un algorithme de segmentation par champs moyens, et obtenons un algorithme appelé TNEM. Nous utilisons ces méthodes pour aider à la navigation dans un corpus textuel. En effet, nous aboutissons à des critères et des moyens de représentation objectifs.
82

Comportement anisotrope en fatigue des composants mécaniques forgés

Pessard, Etienne 16 December 2009 (has links) (PDF)
Cette étude qui s'inscrit dans le cadre d'un projet ANR traitant du comportement en fatigue des pièces forgées a pour objectif, d'une part, de comprendre les effets des hétérogénéités microstructurales issues de la phase de mise en œuvre sur les mécanismes d'endommagement en fatigue, et d'autre part, de proposer un critère d'endurance anisotrope adapté à la spécificité des composants mécaniques forgés. Dans une première partie, l'analyse des effets des procédés de déformation plastique (forgeage et laminage) sur la tenue en fatigue des composants métalliques obtenus est abordée. A partir de différentes campagnes d'essai, le comportement anisotrope en Fatigue à Grand Nombre de Cycles (FGNC) de différents aciers est caractérisé. Une attention particulière est portée à la description et à l'analyse des mécanismes d'endommagement en FGNC. Les effets de la microstructure et du contenu inclusionnaire sur les mécanismes d'endommagement sont particulièrement analysés. Des essais d'auto-échauffement sont également menés afin de tester l'utilisation de ces méthodes de caractérisation des propriétés en fatigue dites rapides dans le cas d'acier dont le comportement en fatigue est anisotrope. Un critère de fatigue probabiliste anisotrope est ensuite proposé. Basé sur l'hypothèse du maillon le plus faible, il permet d'exprimer de façon simple la compétition possible entre différents types de mécanismes. Le critère obtenu est adapté pour les matériaux contenant ou non des défauts et les prévisions peuvent être entre autres illustrées par le tracé d'un diagramme de Kitagawa probabiliste. Grâce à ce nouveau critère, des paramètres microstructuraux issus de l'opération de mise en forme peuvent être intégrés dans le calcul de dimensionnement en fatigue. Une optimisation de la préforme du composant ou des paramètres de mise en forme peut dès lors être envisagée.
83

De la rupture des materiaux à comportement fragile

Hild, François 16 December 1992 (has links) (PDF)
La rupture des matériaux à comportement fragile est causée par la présence de défauts initiaux. Ces derniers conduisent à une rupture brutale dans le cas de composés monolithiques. Dans le cas de céramiques renforcées par des fibres, la rupture finale est le résultat d'un processus de fragmentation progressive des fibres. Des essais ont été effectués sur deux céramiques monolithiques et sur des bétons. Ils ont pour but d'étudier l'influence du type de sollicitation et de la distribution initiale de défauts sur la contrainte de rupture. Une première approche de prévision de la probabilité cumulée de rupture est présentée. Elle tient compte explicitement de la présence des défauts, modélisés par une valeur initiale d'une variable scalaire d'endommagement, dans le calcul du champ de contrainte. Une seconde approche, qui néglige les interactions entre défauts ainsi que leur influence sur le champ de contrainte macroscopique, est ensuite introduite. Elle permet un traitement analytique de l'expression de la probabilité cumulée de rupture en fonction de la distribution initiale de défauts. Une implémentation en tant que postprocesseur de code E.F. est ainsi possible. Elle peut également être étendue à des sollicitations cycliques. Enfin, toutes ces notions peuvent conduire in fine à l'élaboration d'une loi d'endommagement anisotrope de céramiques renforcées par des fibres. La condition de rupture fondée sur un critère de localisation conduit à une estimation de l'endommagement critique en fonction du module de Weibull.
84

An algorithmic look at phase-controlled branching processes/ Un regard algorithmique aux processus de branchement contrôlés par des phases

Hautphenne, Sophie 15 October 2009 (has links)
Branching processes are stochastic processes describing the evolution of populations of individuals which reproduce and die independently of each other according to specific probability laws. We consider a particular class of branching processes, called Markovian binary trees, where the lifetime and birth epochs of individuals are controlled by a Markovian arrival process. Our objective is to develop numerical methods to answer several questions about Markovian binary trees. The issue of the extinction probability is the main question addressed in the thesis. We first assume independence between individuals. In this case, the extinction probability is the minimal nonnegative solution of a matrix fixed point equation which can generally not be solved analytically. In order to solve this equation, we develop a linear algorithm based on functional iterations, and a quadratic algorithm, based on Newton's method, and we give their probabilistic interpretation in terms of the tree. Next, we look at some transient features for a Markovian binary tree: the distribution of the population size at any given time, of the time until extinction and of the total progeny. These distributions are obtained using the Kolmogorov and the renewal approaches. We illustrate the results mentioned above through an example where the Markovian binary tree serves as a model for female families in different countries, for which we use real data provided by the World Health Organization website. Finally, we analyze the case where Markovian binary trees evolve under the external influence of a random environment or a catastrophe process. In this case, individuals do not behave independently of each other anymore, and the extinction probability may no longer be expressed as the solution of a fixed point equation, which makes the analysis more complicated. We approach the extinction probability, through the study of the population size distribution, by purely numerical methods of resolution of partial differential equations, and also by probabilistic methods imposing constraints on the external process or on the maximal population size. / Les processus de branchements sont des processus stochastiques décrivant l'évolution de populations d'individus qui se reproduisent et meurent indépendamment les uns des autres, suivant des lois de probabilités spécifiques. Nous considérons une classe particulière de processus de branchement, appelés arbres binaires Markoviens, dans lesquels la vie d'un individu et ses instants de reproduction sont contrôlés par un MAP. Notre objectif est de développer des méthodes numériques pour répondre à plusieurs questions à propos des arbres binaires Markoviens. La question de la probabilité d'extinction d'un arbre binaire Markovien est la principale abordée dans la thèse. Nous faisons tout d'abord l'hypothèse d'indépendance entre individus. Dans ce cas, la probabilité d'extinction s'exprime comme la solution minimale non négative d'une équation de point fixe matricielle, qui ne peut être résolue analytiquement. Afin de résoudre cette équation, nous développons un algorithme linéaire, basé sur l'itération fonctionnelle, ainsi que des algorithmes quadratiques, basés sur la méthode de Newton, et nous donnons leur interprétation probabiliste en termes de l'arbre que l'on étudie. Nous nous intéressons ensuite à certaines caractéristiques transitoires d'un arbre binaire Markovien: la distribution de la taille de la population à un instant donné, celle du temps jusqu'à l'extinction du processus et celle de la descendance totale. Ces distributions sont obtenues en utilisant l'approche de Kolmogorov ainsi que l'approche de renouvellement. Nous illustrons les résultats mentionnés plus haut au travers d'un exemple où l'arbre binaire Markovien sert de modèle pour des populations féminines dans différents pays, et pour lesquelles nous utilisons des données réelles fournies par la World Health Organization. Enfin, nous analysons le cas où les arbres binaires Markoviens évoluent sous une influence extérieure aléatoire, comme un environnement Markovien aléatoire ou un processus de catastrophes. Dans ce cas, les individus ne se comportent plus indépendamment les uns des autres, et la probabilité d'extinction ne peut plus s'exprimer comme la solution d'une équation de point fixe, ce qui rend l'analyse plus compliquée. Nous approchons la probabilité d'extinction au travers de l'étude de la distribution de la taille de la population, à la fois par des méthodes purement numériques de résolution d'équations aux dérivées partielles, ainsi que par des méthodes probabilistes en imposant des contraintes sur le processus extérieur ou sur la taille maximale de la population.
85

Simulation informatique d'expérience aléatoire et acquisition de notions de probabilité au lycée

Françoise, Gaydier 17 November 2011 (has links) (PDF)
Les programmes affirment que simuler une expérience aléatoire, c'est simuler sa loi de probabilité : nous montrons que ce n'est pas une nécessité. Nous avons entrepris une analyse a priori de la tâche de simulation d'une expérience aléatoire lorsqu'on ne la fait pas dériver de sa loi de probabilité ; cela nous a amenée à préciser les liens qu'entretiennent une expérience aléatoire, ses modélisations probabilistes et ses simulations. Nous proposons un modèle de ces liens, où intervient une étape de pré-modèlisation, commune aux deux tâches de simulation et de modélisation probabiliste, étape pendant laquelle sont choisies les hypothèses de modélisation. La simulation peut alors se construire à partir d'un cahier des charges qui décrit les différentes actions constituant l'expérience aléatoire et leur enchaînement, pour une imitation au plus près cette expérience. La simulation informatique apparaît alors comme une activité essentiellement de type algorithmique. Nous avons mené une expérimentation auprès de lycéens pour observer quelles techniques ils mettent en œuvre pour simuler une expérience aléatoire, et dans quelle mesure ils utilisent le modèle probabiliste ou des simulations pour résoudre un problème de prise de décision dans une situation où intervient le hasard. Une fois choisies les hypothèses de modélisation, l'imitation au plus près n'utilise pas la théorie des probabilités. Certains problèmes résolus par une exploitation statistique des simulations peuvent donc permettre d'introduire des notions de la théorie des probabilités telles que : risque, intervalle et niveau de confiance, adéquation d'un modèle probabiliste aux données expérimentales.
86

Caractérisation géométrique et morphométrique 3-D par analyse d'image 2-D de distributions dynamiques de particules convexes anisotropes. Application aux processus de cristallisation.

Presles, Benoit 09 December 2011 (has links) (PDF)
La cristallisation en solution est un procédé largement utilisé dans l'industrie comme opération de séparation et de purification qui a pour but de produire des solides avec des propriétés spécifiques. Les propriétés concernant la taille et la forme ont un impact considérable sur la qualité finale des produits. Il est donc primordial de pouvoir déterminer la distribution granulométrique (DG) des cristaux en formation. En utilisant une caméra in situ, il est possible de visualiser en temps réel les projections 2D des particules 3D présentes dans la suspension. La projection d'un objet 3D sur un plan 2D entraîne nécessairement une perte d'informations : déterminer sa taille et sa forme à partir de ses projections 2D n'est donc pas aisé. C'est tout l'enjeu de ce travail: caractériser géométriquement et morphométriquement des objets 3D à partir de leurs projections 2D. Tout d'abord, une méthode basée sur le maximum de vraisemblance des fonctions de densité de probabilité de mesures géométriques projetées a été développée pour déterminer la taille d'objets 3D convexes. Ensuite, un descripteur de forme stéréologique basé sur les diagrammes de forme a été proposé. Il permet de caractériser la forme d'un objet 3D convexe indépendamment de sa taille et a notamment été utilisé pour déterminer les facteurs d'anisotropie des objets 3D convexes considérés. Enfin, une combinaison des deux études précédentes a permis d'estimer à la fois la taille et la forme des objets 3D convexes. Cette méthode a été validée grâce à des simulations, comparée à une méthode de la littérature et utilisée pour estimer des DGs d'oxalate d'ammonium qui ont été comparées à d'autres méthodes granulométriques.
87

Approximation récursive du régime stationnaire d'une Equation Differentielle Stochastique avec sauts

Panloup, Fabien 13 December 2006 (has links) (PDF)
La thématique principale de cette thèse est la construction et l'étude de méthodes implémentables par ordinateur permettant d'approcher le régime stationnaire d'un processus ergordique multidimensionnel solution d'une EDS dirigée par un processus de Lévy. S'appuyant sur une approche développée par Lamberton&Pagès puis Lemaire dans le cadre des diffusions Browniennes, nos méthodes basées sur des schémas <br />d'Euler à pas décroissant, « exacts » ou « approchés », permettent de simuler efficacement la probabilité invariante mais également la loi globale d'un tel processus en régime stationnaire. <br />Ce travail possède des applications théoriques et pratiques diverses dont certaines <br />sont développées ici (TCL p.s. pour les lois stables, théorème limite relatif aux valeurs extrêmes, pricing d'options pour des modèles à volatilité stochastique stationnaire...).
88

Analyse de matériaux pour la modélisation des mécanismes de défaillance dans les modules électroniques de puissance

Pietranico, Sylvain 10 December 2010 (has links) (PDF)
Cette thèse porte sur l'étude de la durée de vie de composants et modules de puissance dans des environnements thermiques sévères, lorsque les modules de puissance sont amenés à travailler à haute température ou sous des cycles de température de forte amplitude. Les domaines visés par cette étude concernent plus particulièrement des applications extrêmement contraignantes telles que les applications aéronautiques. Un module de puissance est un assemblage de plusieurs matériaux (semi-conducteurs, brasures, céramiques, conducteurs) présentant des propriétés mécaniques, notamment de coefficient de dilatation thermiques (CTE) différentes. Les pertes dans les puces actives et les variations de température ambiante (profils de mission) sont responsables de contraintes mécaniques liées aux différences de CTE entre les différents matériaux. Les modes de défaillance étant principalement d'origine mécanique, ces travaux ont été effectués entre le SATIE et le LMT (Institut Farman). L'étude mécanique a complété des travaux expérimentaux de caractérisation et de vieillissement accéléré de modules de puissance à semi-conducteur. Ces études ont nécessité la mise en place d'essais de vieillissement spécifiques, passifs (utilisation d'une étuve permettant de contraindre les assemblages de puissance sous des cycles thermiques de grande amplitude) et actifs (utilisation de régimes extrêmes de fonctionnement tels que le court-circuit pour accélérer le vieillissement de certaines parties de l'assemblage).La première partie de ce manuscrit présente les principes physiques mis en jeu. Nous présenterons succinctement les concepts de mécanique de la rupture ainsi que les couplages physiques.La deuxième partie porte sur la rupture de la céramique des substrats DCB. Cette rupture peut provenir de défauts répartis aléatoirement dans le matériau. Nous aborderons le problème par une approche statistique où nous introduirons la "Théorie du maillon faible". L'autre cause de rupture est la présence de défauts géométriques que l'on appelle singularité où il existe une concentration des contraintes nécessitant une approche déterministe. A cette occasion nous introduirons le facteur d'intensité des contraintes qui permet d'étudier les problèmes de rupture liés à des zones singulières.La dernière partie portera sur la dégradation de la métallisation du transistor. La recherche d'indicateurs de vieillissement a demandé la mise au point de différents bancs de caractérisation électrique pour la mesure fine de différentes grandeurs électriques (courants de fuite, tensions de seuil, chute de tension à l'état passant...) dans un environnement thermique contrôlé. De plus ces caractérisations électriques sont corrélées à des observations de la métallisation effectuées par un microscope électronique à balayage de manière régulière. Nous chercherons à montrer comment la modification de la morphologie de la métallisation peut modifier les caractéristiques électriques des transistors de puissance testés.
89

Raymond Aron. De la philosophie critique de l'histoire à l'analyse politique

Li, Lan 08 December 2012 (has links) (PDF)
Notre idée principale est d'essayer de comprendre la pensée politique de Raymond Aron à partir de sa théorie sur l'histoire. Pour nous, derrière sa proclamation d'une politique raisonnable ou progressive existe un support épistémologique, à savoir la proposition d'un déterminisme de probabilité concernant la vérité historique, proposition qui ne peut se constituer que dans le cadre d'une critique de la philosophie spéculative de l'histoire. Dans l'Introduction à la philosophie de l'histoire, Aron tente de surmonter l'antinomie du devenir humain entre unité totale du modèle hégélien-marxiste et pluralité irréductible du modèle d'Oswald Spengler, mais sans tomber dans le piège du relativisme absolu. Plus précisément, sa propre critique de la philosophie de l'histoire se constitue à double niveau : au niveau méthodologique, il essaye de réinterpréter la relation entre la compréhension et l'explication pour établir l'objectivité historique. Et au niveau ontologique, pour éviter une conclusion relativiste, il réintroduit l'idée d'une société humanisée au sens kantien, mais d'une manière moins téléologique et plus régulatrice. Dans le domaine politique, corrélativement, il rejette tout type de messianisme garanti d'avance, car, à ses yeux, ce n'est que par choix et décision instantanée que l'homme fait son histoire, tout en gardant l'espoir de la liberté. Et son libéralisme se différencie du libéralisme purement économique et apparaît à la fois conservateur vis-à-vis de la tradition et essentiellement politique. Notre recherche consistera à montrer comment s'est élaboré, en surmontant les philosophies dogmatiques de l'histoire, ce déterminisme de probabilité ; comment il a su appliquer cette conviction historique à son analyse de la société, notamment en tant que libérale et quel rôle doit jouer, selon lui, un intellectuel face à la politique ; nous reprendrons ensuite sa critique vis-à-vis des intellectuels français, pour l'appliquer au débat entre les intellectuels chinois.
90

Analyse expérimentale et modélisation du comportement non linéaire thermomécanique de cloison en plaques carton-plâtre-carton, vissées et soumise à des charges thermiques et mécaniques

Do, Thanh Trung 08 December 2011 (has links) (PDF)
Dans le cadre de ce travail nous étudions le comportement thermomécanique d'une cloison légère faite de plaques carton-plâtre-carton (CPC) vissées sur une ossature métallique. Cette étude consiste d'une part à mener une analyse expérimentale pour identifier les propriétés thermiques, mécaniques et thermomécaniques des différents constituants de la cloison, et d'autre part, à développer un modèle analytique et un modèle numérique robuste du comportement thermomécanique non linéaire de cloisons légères soumises à un incendie naturel. Pour une modélisation robuste, nous avons d'une part développé un modèle du comportement thermomécanique de l'assemblage par vissage, et d'autre part développé un modèle global de la cloison légère en combinant, le modèle thermomécanique non linéaire du vissage, le modèle du comportement thermomécanique d'une plaque CPC et le modèle de l'ossature métallique. Comme il existe une grande variabilité dans les résultats expérimentaux, les incertitudes doivent être prises en compte. Pour ce faire, nous avons proposé d'utiliser un modèle probabiliste du comportement de l'assemblage par vissages

Page generated in 0.082 seconds