• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 284
  • 142
  • 35
  • 20
  • 6
  • 5
  • 4
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 498
  • 258
  • 79
  • 74
  • 59
  • 56
  • 52
  • 44
  • 43
  • 39
  • 38
  • 37
  • 37
  • 36
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Hétéroagglomération de suspensions céramiques : une étude numérique

Cerbelaud, M. 14 October 2008 (has links) (PDF)
L'hétéroagglomération a été étudiée dans des suspensions céramiques mixtes aluminesilice diluées, par deux types de simulations numériques : dynamique Brownienne et minimisation globale. Les simulations ont été appliquées à un premier système, où les particules d'alumine et de silice sont de tailles peu différentes. Elles ont permis d'analyser la composition et la structure des agglomérats obtenus. Elles ont ensuite été adaptées à un deuxième système, où les particules de silice sont seize fois plus petites que celles d'alumine. Dans ce cas, elles ont montré que les particules de silice s'adsorbent sur l'alumine et que l'agglomération des particules d'alumine, fortement chargées, est possible, par l'intermédiaire de la silice qui se place entre elles. Les agglomérats obtenus sont très allongés bien que les formes d'équilibre soient plus compactes. Les observations expérimentales effectuées sur les deux systèmes sont en accord avec les résultats de ces simulations.
142

Adaptation de la métaheuristique des colonies de fourmis pour l'optimisation difficile en variables continues. Application en génie biologique et médical.

Dréo, Johann 13 December 2003 (has links) (PDF)
Les métaheuristiques de colonies de fourmis s'inspirent des comportements collectifs observés chez les fourmis pour résoudre des problèmes d'optimisation difficile.<br /><br />La première approche pour concevoir des métaheuristiques d'optimisation continue en suivant cette métaphore consiste à créer un système multi-agent. Nous proposons ainsi un algorithme de "colonies de fourmis interagissantes" (CIAC). La deuxième approche décrit ces métaheuristiques comme des méthodes manipulant un échantillonnage d'une distribution de probabilité. Nous proposons ainsi un algorithme "à estimation de distribution" (CHEDA).<br /><br />En accord avec le concept de programmation à mémoire adaptative, nos algorithmes font l'objet d'une hybridation avec une recherche locale de Nelder-Mead (HCIAC). Nous avons ensuite adapté cette méthode à des problèmes continus dynamiques (DHCIAC), pour lesquels nous proposons également un nouveau jeu de test cohérent.<br /><br />Nos algorithmes sont enfin appliqués dans le cadre de l'automatisation du suivi des lésions de l'oeil.
143

L'emphase dans le discours spontané anglais : corrélats acoustiques et prosodiques

Herment-Dujardin, Sophie 15 December 2001 (has links) (PDF)
L'emphase a fait l'objet de peu d'études, pour la plupart fondées sur de la parole de laboratoire, c'est pourquoi ce travail, principalement expérimental, a pour objectif de déterminer les paramètres acoustiques et prosodiques les plus révélateurs de l'emphase dans le discours spontané anglais. Afin de décider quels sont les passages ou mots emphatiques dans le corpus de parole spontanée choisi, on opte pour une étude perceptive auprès d'auditeurs anglophones naïfs. Grâce à ces sondages, un degré d'emphase est determiné pour chaque mot, qui sert de point de départ à des analyses acoustiques. L'étiquetage de la base de données en unités rythmiques et en phonétique est réalisé. On procède ensuite à une analyse acoustique des segments, qui confirme l'hypothèse que la fréquence fondamentale, la durée segmentale, l'intensité globale et les pauses sont certainement essentielles dans la perception de l'emphase, et qui permet également de dégager des paramètres autorisant la mise en œuvre d'une analyse statistique. Cette analyse objective est effectuée grâce à un logiciel de statistiques (qui génère des arbres de classification) sur les segments du corpus mais aussi sur chaque locuteur et chaque type de discours, afin de voir si des stratégies se dégagent. Enfin, une étude sur signaux manipulés constitue le pendant de l'analyse statistique. La fréquence fondamentale, les durées segmentales et les pauses sont modifiées tour à tour dans certains segments du corpus. La délexicalisation de ces segments est également entreprise et un nouveau test de perception est mis en place. Ce test perceptif sur signaux manipulés permet d'intégrer le critère du sémantisme qui n'a pu être inséré dans les paramètres pour l'analyse statistique. On peut conclure que l'emphase est une mise en relief inattendue qui marque une implication de la part du locuteur plus importante qu'à la normale grâce à une augmentation de l'énergie dépensée pour prononcer l'occurrence emphatique, et/ou une augmentation de la hauteur et/ou du mouvement mélodique sur cette occurrence.
144

Modélisation et simulation d'éclairage à base topologique : application aux environnements architecturaux complexes

FRADIN, David 17 December 2004 (has links) (PDF)
Modéliser et visualiser des complexes architecturaux reste aujourd'hui un problème difficile, à cause de la grande masse de données qu'un bâtiment meublé peut représenter. L'objectif de cette thèse est la création d'une chaîne complète allant de la modélisation géométrique jusqu'à la simulation d'éclairage. Nous proposons tout d'abord un modèle à base topologique permettant de représenter des grands bâtiments. Cette structure est une hiérarchie de cartes généralisées munies de partitions multiples. Un prototype de modeleur a été développé autour d'une version optimisée de ce modèle et quelques bâtiments ont été modélisés. De nombreuses informations (géométrie, topologie et sémantique) peuvent être extraites de notre modèle pour optimiser les algorithmes de visualisation. Nous montrons comment accélérer un lancer de rayons à l'aide des informations de modélisation et proposons un algorithme rapide d'illumination globale basé sur un lancer de photons.
145

Contribution à l'étude d'une équation de transport à retards décrivant une dynamique de population cellulaire

Pujo-Menjouet, Laurent 17 September 2001 (has links) (PDF)
Nous présentons un modèle de division de cellules sanguines basé sur la présence d'un facteur appelé maturation et le partage du cycle en une phase de prolifération et une phase de repos. Il est représenté par un système S de deux équations de transport structuré en âge et maturité. En intégrant par rapport à l'âge, S devient un système d'équations aux dérivées partielles à retards structuré en maturité. Dans le chapitre 1, nous introduisons le contexte biologique, et nous présentons notre modèle. Dans le chapitre 2, nous étudions le modèle quand la phase de prolifération est fixe et la division est égale. Nous montrons l'existence et l'unicité puis un résultat liant les solutions aux cellules souches ainsi qu'un résultat d'invariance, de comportement asymptotique et d'instabilité. Dans le chapitre 3, nous supposons que la phase de prolifération varie suivant la maturité des cellules. Nous prouvons des résultats analogues au chapitre 2. Dans le chapitre 4, la phase de prolifération est fixe mais nous supposons la division inégale. En utilisant la théorie des opérateurs de Markov, nous prouvons un résultat de stabilité globale.
146

DE L'HISTOIRE DE LYON À L'HISTOIRE DES ORGANISATIONS INTERNATIONALES : UN RÉCIT À L'ENVERS DE L'ÉVIDENCE

SAUNIER, pierre yves 15 September 2010 (has links) (PDF)
Ce mémoire a pour objet de retracer une trajectoire de recherche, à la lumière des publications qui l'ont jalonnée.
147

Contribution à la modélisation numérique en électromagnétisme statique stochastique

Gaignaire, Roman 11 March 2008 (has links) (PDF)
En électromagnétisme, dans la plupart des modèles numériques, déterministes, résolvant les équations de Maxwell, toutes les données d'entrée sont supposées parfaitement connues. Cependant la géométrie et les caractéristiques des matériaux peuvent présenter des incertitudes (vieillissement...). Nous cherchons alors à propager les incertitudes des données d'entrée vers les paramètres de sorties. Un modèle numérique probabiliste paraît alors plus adapté qu'un modèle numérique déterministe. Un certain nombre de méthodes ont été proposé en génie mécanique, très peu en électromagnétisme. La méthode de simulation de Monte Carlo est simple et robuste mais coûteuse en temps de calcul. On trouve aussi la méthode de perturbation où le champ inconnu est développé en série de Taylor autour de sa moyenne. Cette méthode permet de calculer la moyenne et la variance du champ de sortie assez simplement, mais pour les moments d'ordre supérieur, la généralisation semble complexe et coûteuse en temps de calcul. La méthode de développement en série de Neumann consiste à développer l'opérateur en série, mais la convergence semble lente. Il existe aussi des méthodes basées sur des développements des paramètres de sorties dans le chaos polynomial de Hermite. Ces méthodes sont basées sur une discrétisation de la dimension spatiale et de la dimension aléatoire. Ces méthodes peuvent être séparées en deux familles. La première, introduite par R.G. Ghanem, est dite intrusive car elle nécessite des modifications profondes du code éléments finis, elle est appelée Spectral Stochastic Finite Element Method (SSFEM) et elle peut être vue comme une généralisation de la méthode de Galerkin, la seconde est dite non intrusive car le code éléments finis n'est vu que comme une boite noire. Dans la thèse, nous présenterons la méthode de Monte Carlo, et nous étudierons la SSFEM et une classe particulière de méthode non intrusive : la méthode de projection sur le chaos polynomial de Hermite dans le cas de l'électrocinétique où les conductivités seront supposées être des variables aléatoires par morceaux. Dans ce cadre les conductivités peuvent être développées en polynômes de Hermite, nous étudierons l'effet de la troncature sur les résultats. Finalement, une méthode pour calculer des grandeurs globales, comme le courant sera présentée et utilisée pour l'étude d'un cas industriel : un manchon de câble électrique à haute tension. Mots-clés: électromagnétisme numérique, quantification des incertitudes, chaos polynomial, éléments finis stochastiques, méthode non intrusive de projection, calcul de grandeur globale.
148

ETUDE DE LA STABILITE AUX PETITES PERTURBATIONS DANS LES GRANDS RESEAUX ELECTRIQUES : OPTIMISATION DE LA REGULATION PAR UNE METHODE METAHEURISTIQUE

Alkhatib, Hasan 05 December 2008 (has links) (PDF)
Depuis une vingtaine d'années, les grands réseaux électriques se trouvent obligés de fonctionner à pleine puissance et souvent aux limites de la stabilité. L'amélioration de la stabilité aux petites perturbations, en particulier l'amortissement des oscillations interrégionales, est donc devenue un objectif prioritaire. Les interactions entre les générateurs de différentes régions et les régulateurs utilisés nécessitent une optimisation globale de leurs performances : c'est le meilleur moyen pour assurer le comportement optimal de l'ensemble. L'objectif de ce travail est d'assurer un amortissement maximum, aussi bien des modes interrégionaux que des modes locaux, à l'aide des stabilisateurs de puissance (PSS) généralement utilisés pour l'amortissement des modes électromécaniques locaux. Pour ce faire, nous avons développé une méthode d'optimisation globale basée sur les algorithmes génétiques et une fonction multiobjectif déterminée à partir de l'analyse des valeurs propres du système. Nous avons analysé l'influence de l'augmentation progressive du nombre de variables à optimiser simultanément (paramètres, emplacement et nombre des PSSs). La méthode que nous proposons permet un réglage optimal des PSSs avec le meilleur emplacement possible et un nombre réduit de PSSs. Nous avons proposé en outre une nouvelle méthode d'optimisation utilisant des contraintes dynamiques adaptatives de l'espace de recherche afin d'améliorer les performances et la rapidité de convergence de cet algorithme. Les performances de ces méthodes d'optimisation ont été évaluées sur le réseau multimachines interconnecté New England / New York par analyse des valeurs propres du modèle linéaire du système et simulations temporelles du modèle non-linéaire originel.
149

Simulation globale de l'éclairage pour des séquences animées prenant en en compte la cohérence temporelle

Damez, Cyrille 10 December 2001 (has links) (PDF)
Les méthodes globales de simulation de l'éclairage permettent, à la différence des méthodes d'éclairage local, d'exprimer l'équilibre énergétique dans les échanges entre différents objets, et donc de simuler précisément les effets subtils d'éclairage dûs aux nombreuses inter-réflexions. Il est donc naturel de souhaiter les utiliser pour la synthèse réaliste de films d'animation. Plutôt que de résoudre une succession d'équations intégrales tri-dimensionelles, nous modélisons les échanges lumineux ayant lieu au cours de l'animation sous la forme d'une unique équation intégrale quadri-dimensionelle. Dans le cas ou l'intégralité des mouvements est connue à l'avance, nous proposons une extension de l'algorithme de radiosité hiérarchique mettant à profit la cohérence temporelle. La radiosité en chaque point et à chaque instant y est exprimée dans une base de fonctions hiérarchiques définies sur un maillage produit par un processus de raffinement. L'extension de ce maillage à un espace à quatre dimensions nous permet de calculer des échanges lumineux sur un intervalle de temps fini au lieu d'une date donnée. L'algorithme ainsi défini permet la simulation de l'éclairage global diffus dans une scène animée, dans un temps largement inférieur, avec une qualité équivalente. Nous avons développé pour cela de nouveaux oracles de raffinement ad hoc, que nous présentons ici. Afin de permettre le calcul de scènes géométriquement complexes, nous présentons une nouvelle politique de regroupement hiérarchique des objets adaptée au cas quadri-dimensionnel. Nous présentons également un algorithme permettant la réduction des discontinuités temporelles dues aux approximations effectuées lors de la résolution, basé sur l'emploi de bases de multi-ondelettes. Finalement, nous présentons un mécanisme d'ordonnancement des calculs et de sauvegarde temporaire sur une mémoire de masse permettant de réduire la consommation en mémoire vive de l'algorithme.
150

Planification du placement de caméras pour des mesures 3D de précision

Olague, Gustavo 26 October 1998 (has links) (PDF)
Les mesures tridimensionnelles peuvent être obtenues à partir de plusieurs images par la méthode de triangulation. Ce travail étudie le problème du placement des caméras de façon a obtenir une erreur minimale lors des mesures tridimensionnelles. En photogrammétrie, on parlera du concept du réseau de caméras. Nous poserons le problème en termes d'optimisation et nous le diviserons en deux parties: 1) Une partie analytique dédiée à l'analyse de l'erreur de propagation d'où découlera un critère. 2) Un processus global d'optimisation minimisera ce critère. De ce coté-là, l'approche consiste en une analyse d'incertitude appliquée au processus de reconstruction d'où une matrice de covariance sera calculée. Cette matrice représente l'incertitude de la détection pour lequel le critère est dérivé. Par ailleurs, l'optimisation a des aspects discontinus essentiellement dû à l'inobservabilité des points. Ce facteur va nous amener à utiliser un processus d'optimisation combinatoire que nous avons résolu en utilisant un algorithme génétique multicellulaire. Des résultats expérimentaux sont inclus pour illustrer l'efficacité et la rapidité de la solution.

Page generated in 0.0493 seconds