• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1041

Développement d'une méthode numérique pour les équations de Navier-Stokes en approximation anélastique : application aux instabilités de Rayleigh-Taylor

Hammouch, Zohra 30 May 2012 (has links) (PDF)
L'approximation dite " anélastique " permet de filtrer les ondes acoustiques grâce à un développement asymptotique deséquations de Navier-Stokes, réduisant ainsi le pas en temps moyen, lors de la simulation numérique du développement d'instabilités hydrodynamiques. Ainsi, les équations anélastiques sont établies pour un mélange de deux fluides pour l'instabilité de Rayleigh-Taylor. La stabilité linéaire de l'écoulement est étudiée pour la première fois pour des fluides parfaits, par la méthode des modes normaux, dans le cadre de l'approximation anélastique. Le problème de Stokes issu des équations de Navier-Stokes sans les termes non linéaires (une partie de la poussée d'Archiméde est prise en compte) est défini ; l'éllipticité est démontrée, l'étude des modes propres et l'invariance liée à la pression sont détaillés. La méthode d'Uzawa est étendue à l'anélastique en mettant en évidence le découplage des vitesses en 3D, le cas particulier k = 0 et les modes parasites de pression. Le passage au multidomaine a permis d'établir les conditions de raccord (raccord Co de la pression sans condition aux limites physiques). Les algorithmes et l'implantation dans le code AMENOPHIS sont validés par les comparaisons de l'opérateur d'Uzawa développé en Fortran et à l'aide de Mathematica. De plus des résultats numériques ont été comparés à une expérience avec des fluides incompressibles. Finalement, une étude des solutions numériques obtenues avec les options anélastique et compressible a été menée. L'étude de l'influence de la stratification initiale des deux fluides sur le développement de l'instabilité de Rayleigh-Taylor est amorcée.
1042

Matériaux aléatoirement renforcés de type Texsol : modélisation variationnelle par homogénéisation stochastique

Nait-Ali, Azdine 23 November 2012 (has links) (PDF)
Notre but est de proposer un modèle mathématique d'un matériau composite aléatoirement renforcé de type TexSol (un mélange sable-fil). Pour cela nous effectuons une étude asymptotique variationnelle afin d'obtenir une structure homogène et déterministe rendant compte du comportement mécanique de ce matériau. La stratégie de modélisation consiste à découper (suivant une direction x3) un cube de TexSol en fines plaques d'épaisseur h(ε) dépendant d'un très petit paramètre ε << 1. Pour h(ε) assez petit, nous supposerons que dans chaque plaque les fibres sont verticales. Notre problème initial est alors décomposé en n modèles de type plaque donnant une formulation 2-dimensionnelle après passage à la limite. Le modèle obtenu est déterministe. Puis, en utilisant ce résultat pour chacune des plaques, on obtient ainsi une énergie discrète (suivant x3), somme des n énergies 2-dimensionnelles homogènes et déterministes. Nous reconstruisons alors une structure 3D par une intégration variationnelle en x3, i.e. en passant à la limite en n de manière variationnelle. L'énergie limite, homogène et déterministe ainsi obtenue est proposée comme un modèle du TexSol. Nos différents résultats sont validés par une étude numérique.
1043

Méthodes probabiliste pour le suivi de points et l'analyse d'images biologiques

Primet, Maël 25 November 2011 (has links) (PDF)
Nous nous intéressons dans cette thèse au problème du suivi d'objets, que nous abordons par des méthodes statistiques. La première contribution de cette thèse est la conception d'un algorithme de suivi de bactéries dans une séquence d'image et de reconstruction de leur lignage, travail ayant donné lieu à la réalisation d'une suite logicielle aujourd'hui utilisée dans un laboratoire de recherche en biologie. La deuxième contribution est une étude théorique du problème de la détection de trajectoires dans un nuage de points. Nous définissons un détecteur de trajectoires utilisant le cadre statistique des méthodes a contrario, qui ne requiert essentiellement aucun paramètre pour fonctionner. Ce détecteur fournit des résultats remarquables, et permet notamment de retrouver des trajectoires dans des séquences contenant un grand nombre de points de bruit, tout en conservant un taux de fausses détections de trajectoires très faible. Nous étudions ensuite plus spécifiquement le problème de l'affectation de nuages de points entre deux images, problème rencontré notamment pour la détection de trajectoires ou l'appariement d'images stéréographiques. Nous proposons d'abord un modèle théoriquement optimal pour l'affectation de points qui nous permet d'étudier les performances de plusieurs algorithmes classiques dans différentes conditions. Nous formulons ensuite un algorithme sans paramètre en utilisant le cadre a contrario, ce qui nous permet ensuite d'obtenir un nouvel algorithme de suivi de trajectoires.
1044

Problèmes inverses en Haute Résolution Angulaire

Mugnier, Laurent 18 October 2011 (has links) (PDF)
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
1045

Sur le spectre de l'opérateur de Schrödinger magnétique dans un domaine diédral

Popoff, Nicolas 20 November 2012 (has links) (PDF)
Cette thèse analyse le spectre d'opérateurs de Schrödinger avec champ magnétique constant dans des ouverts de type diédraux. Pour comprendre l'influence d'une arête courbe sur la première valeur propre de l'opérateur dans la limite semi-classique, il faut connaître le bas du spectre de l'opérateur de Schrödinger magnétique avec champ constant sur un dièdre infini. Par transformation de Fourier ce problème se ramène à l'étude d'une famille d'opérateurs à paramètre sur un secteur infini. On calcule le spectre essentiel de ces opérateurs sur le secteur et on montre que dans certains cas il y a des valeurs propres discrètes sous le spectre essentiel. Par comparaison avec des opérateurs de Sturm-Liouville singuliers sur le demi-axe on obtient des majorations du bas du spectre de l'opérateur sur le dièdre : pour un angle d'ouverture assez petit et certaines orientations du champ magnétique, celui-ci est strictement inférieur aux quantités spectrales issues du cas régulier. Finalement on applique ces résultats à l'opérateur de Schrödinger avec champ magnétique constant et petit paramètre dans des domaines bornés de l'espace possédant des arêtes courbes. Pour déterminer une asymptotique de la première valeur propre dans la limite semi-classique, on construit des quasi-modes près de l'arête à l'aide des fonctions propres du problème à paramètre sur le secteur. En utilisant une partition du domaine selon que l'on soit près de l'arête ou du bord régulier, on obtient le premier terme de l'asymptotique pour diverses orientations du champ magnétique et on montre dans certains cas que la première valeur propre est inférieure aux valeurs propres associées à des ouverts réguliers.
1046

Traitement et analyse d'images IRM de diffusion pour l'estimation de l'architecture locale des tissus

Assemlal, Haz-Edine 11 January 2010 (has links) (PDF)
Dans cette thèse, nous proposons une méthode qui tente de répondre à la problématique de l'estimation de caractéristiques variées du tissu cérébral à partir de l'acquisition d'un nombre réduit d'échantillons de signaux IRM de diffusion in vivo. Ces caractéristiques doivent permettre l'étude de la structure locale du tissu cérébral, notamment dans la substance blanche. L'approche proposée est flexible quant à la caractéristique calculée et au nombre d'échantillons disponibles. Elle définit un formalisme générique qui d'une part, unifie de nombreux travaux précédents liés à l'estimation des fonctions de densité probabilité (PDF) de déplacement en IRM de diffusion, dont l'Imagerie du Tenseur de Diffusion (DTI) et le Q-Ball Imaging (QBI). D'autre part, elle permet aussi de définir et d'estimer de nouvelles caractéristiques originales: "vraie" ODF, probabilité de non diffusion, taille moyenne des cellules, etc. Nous proposons deux formalismes: un rapide et un autre robuste au bruit des images IRM. Nous validons notre approche par des comparaisons de résultats avec des méthodes de la littérature, sur des données synthétiques ainsi que des données d'un cerveau humain acquises in vivo dans un intervalle de temps modéré.
1047

Etude d'estimations d'erreur a posteriori et d'adaptivité basée sur des critères d'arrêt et raffinement de maillages pour des problèmes d'écoulements multiphasiques et thermiques. Application aux procédés de récupération assistée d'huile

Yousef, Soleiman 10 December 2013 (has links) (PDF)
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénér ées multidimensionnelles modélisant des problèmes importants pour l'industrie. Au chapitre 1 nous considérons le problème de Stefan instationaire a deux phases qui modélise un processus de changement de phase régi par la loi de Fourier. Nous régularisons la relation entre l'enthalpie et la température et nous discrétisons le problème par la méthode d'Euler implicite en temps et un schéma numérique conforme en espace tel que les élément finis conformes, ou les volumes finis centrés aux sommets du maillage. Nous démontrons une borne supérieure de la norme duale du résidu, de l'erreur sur l'enthalpie dans L2(0; T;H-1) et de l'erreur sur la température dans L2(0; T;L2), par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent : un estimateur associé à l'erreur de régularisation, un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. En fin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Un test numérique illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des indices d'efficacité proches de la valeur optimale de 1 sont obtenus. Au chapitre 2 nous développons des estimations d'erreur a posteriori pour l'écoulement de Darcy polyphasique et isothermique, décrit par un système couplé d'équations aux dérivées partielles non linéaires et d'équations algébriques non linéaires. Ce système est discrétisé en espace par une méthode de volume finis centrés par maille et la méthode d'Euler implicite en temps. Nous etablissons une borne supérieure d'une norme duale du résidu augmentée d'un terme qui tiens compte de la non-conformité des volumes finis par des estimateurs d'erreur a posteriori entièrement calculables. Dans ce chapitre, nous nous concentrons sur la formulation d'un critère d'arrêt de l'algorithme de linéarisation du problème discrète (tel que la méthode de Newton) avec un critère d'arrêt du solveur algébrique de résolution du système linéarité (par exemple la méthode GMRes), de sort que les contributions des estimateurs d'erreur correspondant n'affectent plus la somme globale des estimateurs d'erreur de manière significative. Nous appliquons notre analyse sur des exemples réalistes d'ingénierie de réservoir pour confirmer qu'en général notre ajustement des critères d'arrêt apporte une économie significative (jusqu'au un ordre de magnitude en termes du nombre total des itérations du solveur algébrique), déjà sur des maillages fixes, et ceci sans perte notable de précision. Au chapitre 3 nous complétons le modèle décrit au chapitre 2 en considérant une condition non-isothermique pour l'écoulement a fin de traiter le modèle général d'écoulement polyphasique thermique dans les milieux poreux. Pour ce problème, nous développons des estimateurs d'erreur analogues a ceux du chapitre 2 pour lesquels nous établissons une borne supérieure d'erreur entièrement calculable, pour une norme duale du résidu complétée par un terme d'évaluation de la non-conformité. Nous montrons ensuite comment estimer séparément chaque composante d'erreur, ce qui nous permet d'ajuster les critères d'arrêt et d'équilibrer les contributions des différents estimateurs d'erreur : erreur d'approximation en temps, erreur d'approximation en espace, erreur de linéarisation et erreur du solveur algébrique. Ce chapitre se termine par une application des estimateurs au modèle d'huile morte. La preuve de l'efficacité de notre estimation a postiriori est egalement fournie. Finalement, au chapitre 4 nous considérons les procédés de récupération assistée d'huile. Plus précisément, nous étudions une technique de récupération thermique d'huile de type huile morte par injection de vapeur destinée a augmenter la mobilité des hydrocarbures. Dans ce chapitre, nous appliquons l'analyse a posteriori des chapitres 2 et 3, nous proposons une formule de quadrature pour simplifier l'évaluation des estimateurs, nous proposons un algorithme adaptatif de raffinement de maillages en espace et en temps basé sur les estimateurs et nous illustrons pas des essais numériques sur des exemples réalistes la performance de cette stratégie de raffinement. Notamment, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation sur des exemples en dimension trois.
1048

La théorie des courbes et des équations dans la Géométrie cartésienne : 1637-1661. [version corrigée]

Maronne, Sebastien 19 September 2007 (has links) (PDF)
Dans cette thèse, nous étudions trois thèmes qui nous sont apparus centraux dans la Géométrie cartésienne : le problème de Pappus, le problème des tangentes et des normales, et un problème de gnomonique connu sous le nom de Problema Astronomicum. Par " Géométrie cartésienne ", nous entendons le corpus formé non seulement par la Géométrie, publiée en 1637, mais également par la Correspondance cartésienne et les deux éditions latines placées sous la direction de Frans van Schooten, publiées respectivement en 1649 et 1659-1661. Nous étudions la genèse de la théorie des courbes géométriques définies par des équations algébriques en particulier à travers les controverses qui apparaissent dans la correspondance cartésienne : la controverse avec Roberval sur le problème de Pappus, la controverse avec Fermat sur les tangentes, et la controverse avec Stampioen sur le Problema astronomicum. Nous souhaitons ainsi montrer que la Géométrie de la Correspondance constitue un moyen terme entre la Géométrie de 1637 et les éditions latines de 1649 et 1659-1661, mettant en lumière les enjeux et les difficultés du processus de création de la courbe algébrique comme objet. D'autre part, nous examinons la méthode des tangentes de Fermat et la méthode des normales de Descartes, en les rapportant à une matrice commune formée par le traité des Coniques d'Apollonius, plus précisément, le Livre I et le Livre V consacré à une à théorie des droites minimales.
1049

La théorie des courbes et des équations dans la Géométrie cartésienne : 1637-1661. [version déposée]

Maronne, Sebastien 19 September 2007 (has links) (PDF)
Dans cette thèse, nous étudions trois thèmes qui nous sont apparus centraux dans la Géométrie cartésienne : le problème de Pappus, le problème des tangentes et des normales, et un problème de gnomonique connu sous le nom de Problema Astronomicum. Par " Géométrie cartésienne ", nous entendons le corpus formé non seulement par la Géométrie, publiée en 1637, mais également par la Correspondance cartésienne et les deux éditions latines placées sous la direction de Frans van Schooten, publiées respectivement en 1649 et 1659-1661. Nous étudions la genèse de la théorie des courbes géométriques définies par des équations algébriques en particulier à travers les controverses qui apparaissent dans la correspondance cartésienne : la controverse avec Roberval sur le problème de Pappus, la controverse avec Fermat sur les tangentes, et la controverse avec Stampioen sur le Problema astronomicum. Nous souhaitons ainsi montrer que la Géométrie de la Correspondance constitue un moyen terme entre la Géométrie de 1637 et les éditions latines de 1649 et 1659-1661, mettant en lumière les enjeux et les difficultés du processus de création de la courbe algébrique comme objet. D'autre part, nous examinons la méthode des tangentes de Fermat et la méthode des normales de Descartes, en les rapportant à une matrice commune formée par le traité des Coniques d'Apollonius, plus précisément, le Livre I et le Livre V consacré à une à théorie des droites minimales.
1050

Histoire sismique des failles normales de la région du Lazio-Abruzzo (Italie) : implications sur la variabilité spatiale et temporelle du glissement sismique au sein d'un système de faille / Seismic history of normal fault in the Lazio-Abruzzo (Italy) : implications for the spatial and temporal variability of the seismic slip within a fault-system

Tesson, Jim 03 March 2017 (has links)
La mesure et la modélisation des concentrations en $^{36}$Cl accumulé au sein d'un plan de faille normal permet d'estimer l'âge et le glissement des forts séismes passés ayant successivement exhumé ce plan de faille. Si cette méthode présente l'avantage de fournir des enregistrements paléo-sismologiques continus sur des périodes de temps relativement longues (10 000 à 20 000 ans), la modélisation de données repose jusqu’à présent sur un modèle direct qui permet difficilement d'attester de l'unicité du scenario proposé, et d'estimer précisément les incertitudes associées, et ne tient pas compte de l'histoire long-terme du plan de faille, avant son exhumation post-glaciaire (héritage). Nous avons développé dans un premier temps un nouveau modèle qui inclut l’histoire d'héritage, et mis en place une procédure d'inversion des données permettant de 1) déterminer l'ensemble des paramètres de l'histoire sismique d'exhumation, 2) d’attester de l'unicité du scénario proposé, et 3) de contraindre précisément ses incertitudes. Nous appliquons notre méthode d’inversion à 11 failles des Apennins Centraux et montrons une grande variabilité dans leur activité sismique au cours des derniers 10 000 à 45 000 ans, avec des accélérations représentant 2 à 20 fois la vitesse long-terme de la faille. Nos résultats suggèrent en particulier que l'activité sismique des failles des Apennins Centraux pourrait être contrôlée par les propriétés intrinsèques des failles (vitesse long-terme, longueur, segmentation, état de maturité structurale), ainsi que par des processus d'interactions visco-élastiques agissant entre les failles. / The use of $^{36}$Cl cosmogenic nuclide as a paleo-seismological tool to determine the seismic history of normal faults provide continuous records over the past 10 000 to 20 000 yrs. The modeling of the $^{36}$Cl concentrations measured at the surface of an exhumed fault-plane allows determining the age and the displacement of the past seismic events that successively exhumed the fault-plane. The available modeling approach is however unable to attest for the unicity of the inferred scenario, which makes the estimate of the associated uncertainties difficult. An other limitation concerns the long-term history of the fault-plane prior its post-glacial exhumation (inheritance), that is not fully accounted for in this model (Schlagenhauf et al., 2010). We have developed a reappraisal of this model that accounts for the inheritance history, and includes a procedure of data inversion to 1) determine all parameters of the exhumation history at once, 2) attest for the unicity of the proposed scenario, and 3) precisely determine the associated uncertainties. Applying our new modeling to 11 normal faults previously studied in Central Apennines, we observe a large variability of their seismic activity over the last 10 000 - 45 000 yrs, with slip-rate acceleration reaching 2-20 times their long-term slip-rate. In particular, our results suggest that the seismic activity of normal faults in Central Apennines could be controlled by intrinsic properties of the faults (such as their long-term slip-rate, fault-length, segmentation, state of structural maturity), and by visco-elastic stress transfers between faults.

Page generated in 0.0659 seconds