Spelling suggestions: "subject:"mesures"" "subject:"lesures""
421 |
Impacts des vagues sur les courants marins : Modélisation multi-échelle de la plage au plateau continentalMichaud, Héloïse 13 December 2011 (has links) (PDF)
Le littoral sableux du Languedoc-Roussillon est un système vulnérable aux risques d'érosion et de submersion. Ces aléas sont liés à la conjonction des facteurs naturels que sont les vagues, vent, élévation du niveau de la mer et apports sédimentaires et sont donc aggravés en période de tempête. En vue d'une gestion des risques, une meilleure connaissance des phénomènes hydrodynamiques de l'échelle littorale à l'échelle côtière est essentielle. Ce travail a conduit à la réalisation d'une plateforme de modélisation numérique composée du modèle de circulation océanique 3D Symphonie, traditionnellement dédié aux échelles régionales et côtières, qui a été modifié pour inclure le forçage par les vagues, modélisées par les modèles Wavewatch III ou Swan, et ainsi étendre sa validité au littoral. Le modèle a été testé sur des cas académiques littoraux. Des mesures sur la plage à double barres de Sète pendant l'hiver 2008-2009, ont également servi à parfaire le modèle qui reproduit ainsi avec succès les caractéristiques des courants en zone littorale : la dérive, les courants sagittaux sur des bathymétries plus complexes et les profils verticaux des courants. Pour valider le modèle à des échelles plus côtières, nous avons confronté ses résultats à des mesures réalisées pendant une tempête hivernale en 2004 aux alentours de l'embouchure de la Têt, mais également sur des tempêtes de 2007 et 2008 dans le Golfe d'Aigues-Mortes. Les courants sont globalement bien reproduits. Les zones d'action des vagues semblent limitées aux zones de profondeur inférieure à 30 m. Notre modèle autorise une reproduction correcte des courants à toutes les échelles et sa nature 3D permet un calcul plus précis de la tension de cisaillement de fond et du courant près du fond, responsables respectivement de la mise en suspension et de l'advection des sédiments.
|
422 |
Constructions déterministes pour la régression parcimonieuseDe Castro, Yohann 03 December 2011 (has links) (PDF)
Dans cette thèse nous étudions certains designs déterministes pour la régression parcimonieuse. Notre problématique est largement inspirée du " Compressed Sensing " où l'on cherche à acquérir et compresser simultanément un signal de grande taille à partir d'un petit nombre de mesures linéaires. Plus précisément, nous faisons le lien entre l'erreur d'estimation et l'erreur de prédiction des estimateurs classiques (lasso, sélecteur Dantzig et basis pursuit) et la distorsion (qui mesure l'" écart " entre la norme 1 et la norme Euclidienne) du noyau du design considéré. Notre étude montre que toute construction de sous-espaces de faibles distorsions (appelés sous-espaces " presque "- Euclidiens) conduit à de " bons " designs. Dans un second temps, nous nous intéressons aux designs construits à partir de graphes expanseurs déséquilibrés. Nous en établissons de manière précise les performances en termes d'erreur d'estimation et d'erreur de prédiction. Enfin, nous traitons la reconstruction exacte de mesures signées sur la droite réelle. Nous démontrons que tout système de Vandermonde généralisé permet la reconstruction fidèle de n'importe quel vecteur parcimonieux à partir d'un très faible nombre d'observations. Dans une partie indépendante, nous étudions la stabilité de l'inégalité isopérimétrique sur la droite réelle pour des mesures log-concaves.
|
423 |
Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriquesCachier, Pascal 29 January 2002 (has links) (PDF)
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
|
424 |
Dialogue modèle-expérience et stratégie d'identification en mécanique du solide. Application à la mise en forme des matériaux.Toussaint, Franck 23 September 2011 (has links) (PDF)
De nombreux secteurs industriels investissent dans la simulation numérique afin de diminuer les coûts de production, de raccourcir les durées de conception et d'industrialisation des produits et d'augmenter la robustesse des procédés de fabrication. Cet objectif pose des défis importants à la communauté mécanicienne dans la mesure où il s'agit de concevoir des modèles numériques fiables et performants, capables de reproduire le comportement mécanique des matériaux. Les études entreprises, s'inscrivent dans cette démarche et concilient analyse expérimentale et modélisation numérique. Dans un premier temps, sur la base d'une logique classique suivant le triptyque : (i) essais mettant en oeuvre la technique de corrélation d'images, (ii) modélisation adaptée et (iii) utilisation des modèles et de leurs paramètres associés, il est montré comment les résultats des simulations numériques s'accordent avec l'expérience. Deux exemples sont plus particulièrement détaillés, l'un relevant du secteur biomédical, l'autre de l'industrie du packaging. Au-delà de cette logique, une approche de type recalage de modèles éléments finis à partir de mesures de champs cinématiques et thermiques est présentée dans un deuxième temps. Cette méthode d'identification inverse est mise en oeuvre sur des essais générant des champs de déformations hétérogènes, pour certains hors-plans, toujours à des fins d'identification du comportement thermomécanique du titane. Les résultats obtenus mettent en évidence l'intérêt de cette technique de pouvoir identifier un nombre plus élevé de paramètres que dans les études abordées précédemment basées sur des essais homogènes classiques.
|
425 |
Modélisation électronique et électromagnétique d'un transformateur haute fréquence à circuit magnétique en fonteBlache, François 20 December 1995 (has links) (PDF)
Ce mémoire commence par une présentation de l'état de l'art en matière de circuits équivalents et de caractérisation expérimentale des composants bobinés. Il précise ensuite les modifications à apporter au circuit équivalent initial, pour des transformateurs à faible rendement et/ou faible couplage, ainsi que les méthodes de caractérisation expérimentale applicables à de tels composants. Les éléments du circuit équivalent du composant faisant l'objet de cette étude sont ensuite " évalués expérimentalement. La simulation, à l'aide du logiciel PSPICE, du comportement d'un circuit électronique intégrant ce composant est confrontée à l'expérience. Le gain en précision résultant de l'emploi d'un modèle adéquat pour chaque composant bobiné est ainsi mis en évidence. La suite de l'étude porte sur le calcul des éléments du circuit équivalent du transformateur à partir des données technologiques. Dans un premier temps, l'accent est mis sur les capacités parasites. En menant en parallèle une étude analytique et une modélisation électrostatique grâce au logiciel FLUX2D, l'incidence du mode de bobinage sur la valeur des capacités est analysée en détail. Des règles pratiques de bobinage, visant à diminuer ces capacités parasites, sont justifiées et appliquées à des prototypes industriels, avec succès. Le calcul des grandeurs magnétiques et des pertes à l'aide du logiciel FLUX2D, nécessite l'introduction d'une perméabilité complexe. Nous discutons alors de certaines limites de validité des méthodes classiques de caractérisation des matériaux magnétiques. Enfin, une méthode expérimentale originale, destinée à mesurer, à chaque fréquence, la résistivité et la perméabilité complexe d'un matériau magnétique conducteur linéaire est proposée et validée. Cette méthode est ensuite étendue au cas des matériaux composites (ferrites).
|
426 |
Détection de dérivation de textePoulard, Fabien 24 March 2011 (has links) (PDF)
L'Internet permet la production et la diffusion de contenu sans effort et à grande vitesse. Cela pose la question du contrôle de leur origine. Ce travail s'intéresse à la détection des liens de dérivation entre des textes. Un lien de dérivation unit un texte dérivé et les textes préexistants à partir desquels il a été écrit. Nous nous sommes concentré sur la tâche d'identification des textes dérivés étant donné un texte source, et ce pour différentes formes de dérivation. Notre première contribution consiste en la définition d'un cadre théorique posant les concepts de la dérivation ainsi qu'un modèle mulitidimensionnel cadrant les différentes formes de dérivation. Nous avons ensuite mis en place un cadre expérimental constitué d'une infrastructure logicielle libre, de corpus d'évaluation et d'un protocole expérimental inspiré de la RI. Les corpus Piithie et Wikinews que nous avons développé sont à notre connaissance les seuls corpus en français pour la détection de dérivation. Finalement, nous avons exploré différentes méthodes de détection fondées sur l'approche par signature. Nous avons notamment introduit les notions de singularité et d'invariance afin de guider le choix des descripteurs utilisés pour la modélisation des textes en vue de leur comparaison. Nos résultats montrent que le choix motivé des descripteurs, linguistiques notamment, permet de réduire la taille de la modélisation des textes, et par conséquence des coûts de la méthode, tout en offrant des performances comparables à l'approche état de l'art beaucoup plus volumineuse.
|
427 |
Contributions à l'étude des files d'attente avec clients impatientsMoyal, Pascal 07 1900 (has links) (PDF)
Le développement du temps-réel est aujourd'hui une préoccupation majeure dans la conception des réseaux de télécommunication et des réseaux informatiques. Toute donnée doit alors avoir une "durée de vie" très limitée dans le système, puisque son traitement doit être instantané. Pour rendre compte de cette contrainte dans la représentation d'un nœud du réseau, on enrichit le modèle classique de la file d'attente d'un nouveau paramètre: le délai d'exécution des tâches. On parlera donc de file d'attente avec clients impatients: ils entrent dans le magasin avec une patience limitée et le quittent si leur délai expire avant d'avoir atteint un serveur. Nous étudions des cas où la discipline de service dépend du délai des clients ( EDF: on sert le plus pressé, LDF: le moins pressé...). Ceux-ci présentent une dynamique instable, ce qui en complique notoirement la description markovienne. Pour un système général sous toute discipline de service, un schéma de récurrence arrière aux instants de fins de service nous permet de prouver sous Palm l'Existence/Unicité du régime stationnaire, et de donner la condition de récurrence. Nous prouvons dans le même cadre par des techniques de couplage qu'EDF est la discipline optimale et que LDF est la pire pour la probabilité de perte à l'équilibre P et donnons une borne du gain d'EDF en terme de P. Nous calculons en outre des encadrements de P sous EDF dans certains cas. Nous proposons ensuite une description markovienne de la file d'attente avec clients impatients par le processus à valeur mesures ponctuelles simples où chaque masse de Dirac représente le délai résiduel d'un client en attente ou déjà perdu. Nous donnons la limite fluide d'une suite de renormalisations de ce processus en espace, temps et amplitude, ainsi qu'un théorème central limite fonctionnel établissant la convergence en loi de l'écart à la limite vers un processus de diffusion . La limite fluide, à trajectoires continues et déterministes, s'écrit explicitement comme l'unique solution d'une équation intégrale dans l'espace des processus à valeurs distributions tempérées. Les convergences s'obtiennent par passage aux fonctions tests du dual, et par des méthodes de compacité/unicité. Nous appliquons ces résultats à l'estimation asymptotique des processus de congestion et de perte sous EDF et FIFO, et au système délai pur.
|
428 |
Etude expérimentale d'une longueur de corrélation dynamique à la transition vitreuseCrauste-Thibierge, Caroline 23 September 2009 (has links) (PDF)
Le ralentissement de la dynamique des liquides à la transition vitreuse reste un phénomène encore mal compris. Beaucoup de liquides peuvent, sous certaines conditions, passer la température de cristallisation, rester liquides (surfondus) et avoir une viscosité qui augmente énormément jusqu'à ce qu'ils se figent en un verre à la température de transition vitreuse Tg. De nombreuses données expérimentales ont été obtenues par des techniques différentes et beaucoup de modèles théoriques ont été explorés pour rendre compte de ces faits et mieux les comprendre. Le scénario qui nous a plus particulièrement guidés ici est celui des hétérogénéités dynamiques : des zones se développent dans le liquide où les mouvements des molécules sont corrélés, nécessitant un apport en énergie pour relaxer qui augmente lorsque la température diminue et que la taille des zones augmente. Cette image est liée à l'existence possible d'une transition de phase sous-jacente. Mais ce nombre de molécules corrélées, et surtout son évolution en température n'avait encore jamais été mesurée de manière directe dans les liquides surfondus. Deux méthodes basées sur les mesures de susceptibilité linéaire pour la première et non-linéaire pour la seconde ont été proposées, qui permettent de sonder directement ce nombre de molécules corrélées. Nous avons développé une expérience originale qui permet de mesurer la susceptibilité diélectrique linéaire mais aussi la réponse non-linéaire. La mesure de la susceptibilité non-linéaire est délicate puisque le signal recherché est 106 fois plus faible que le signal linéaire usuellement mesuré. Nous avons donc particulièrement travaillé le choix des appareils électroniques (source de tension et détection synchrone), des circuits de mesure, et le développement des condensateurs à liquide nécessaires. Nous avons mesuré alors un nombre de molécules corrélées qui croît lorsque la température diminue, par les deux techniques. La mesure non-linéaire donne un nombre qui croît lentement, d'environ 80 % entre Tg + 8 K et Tg + 38 K. Nous avons comparé cette croissance à celle obtenue par les mesures linéaire et constaté que les deux évolutions sont globalement similaires avec toutefois des différences qu'il serait utile de mieux comprendre. Nous avons aussi étudié l'évolution en fréquence de la réponse non-linéaire et montré l'existence d'une courbe maîtresse où toutes les courbes à différentes températures se recalent. Cette courbe a pu être comparée à un modèle phénoménologique d'échauffement des hétérogénéités dynamiques et à des prédictions théoriques basées en partie sur une des grandes théories des verres, la théorie de couplage de modes. Ces résultats expérimentaux originaux apportent un éclairage nouveau sur la transition vitreuse et notamment en terme de phénomènes critiques, rapprochant la transition vitreuse de la transition des verres de spins, qui elle est une transition de phase.
|
429 |
Contribution à l'évaluation monétaire de biens et services sans référent de marché : les apports combinés de la méthode de l'évaluation contingente et de l'analyse des mesures conjointesLe Gall-Ely, Marine 15 December 2000 (has links) (PDF)
La question du juste prix des biens et services sans référent de marché (en situation non concurrentielle et pour lesquels il n'existe pas de prix de marché) se pose de manière cruciale très tôt dans le processus de développement de l'offre. L'objectif général de notre recherche fut d'essence méthodologique : comparer deux outils d'estimation du consentement à payer du consommateur, l'évaluation contingente et l'analyse des mesures conjointes respectivement développées en économie et en marketing, au regard de critères scientifiques mais également d'éléments pratiques. Après une revue de la littérature de ces deux disciplines, nous avons décrit les similarités que présentent les biens sans référent de marché commerciaux et publics. Puis nous avons souligné les divergences existant entre les deux disciplines quant à l'analyse du processus de décision du consommateur et du rôle du prix en son sein. Cette revue nous a cependant permis de rapprocher le consentement à payer, seul concept de prix mesurable pour un bien sans référent de marché, de l'acceptabilité intentionnelle du prix. La nécessaire mesure de ce concept a alors rapidement mené à la sélection de l'évaluation contingente et de l'analyse des mesures conjointes dans les « boîtes à outils » économique et marketing. La seconde partie de notre travail fut consacrée à comparer ces deux méthodes, tant sur le plan méthodologique que pratique. Deux études empiriques utilisant diverses variantes des méthodes ont été menées, l'une à un stade très peu avancé du développement d'un concept multiservices innovant et l'autre à un stade plus avancé. Nous avons conclu à deux types de complémentarité entre les méthodes : d'une part, une complémentarité séquentielle (l'évaluation contingente servant de méthode exploratoire du consentement à payer très en amont dans le processus de développement et servant de base à la conception d'une analyse des mesures conjointes menée ultérieurement), d'autre part, une complémentarité simultanée lorsque le développement est plus avancé (l'analyse des mesures conjointes permettant de fixer le prix d'une gamme de produits ou de services et l'évaluation contingente aidant à une segmentation de la demande en fonction de sa sensibilité au prix). Enfin des recommandations à l'intention d'utilisateurs potentiels et des voies de recherche ont été soulignées.
|
430 |
Génération et détection optiques d'ondes guidées sur une pièce cylindrique. Application au contrôle non destructif sans contactClorennec, Dominique 11 January 2002 (has links) (PDF)
En contrôle non destructif par ultrasons, l'utilisation de la génération et de la détection par laser présente l'avantage de ne pas nécessiter de contact mécanique. La source laser crée à la surface du matériau un échauffement qui engendre dans celui-ci un champ de contraintes. Ce champ est la source d'ondes élastiques de surface et de volume. En régime thermoélastique (régime non destructif) et dans le cas d'une source linéique, les ondes de surface sont prépondérantes. Nous avons étudié la propagation de ces ondes sur des pièces cylindriques. Dans le cas d'un cylindre, nous avons développé un modèle analytique permettant d'analyser l'influence de la dispersion due aux variations de la vitesse de groupe sur la forme de l'onde de Rayleigh. Nous avons également constaté expérimentalement la déformation de l'onde de Rayleigh selon la position du point d'observation déterminée par son angle par rapport aux pôles d'émission. Ces résultats ont été corroborés par une simulation aux différences finies. Dans une approche plus industrielle, nous avons analysé les différents éléments pouvant perturber la détection des ondes ultrasonores (la sonde optique, la configuration de contrôle, la dimension des échantillons ...). En présence d'un défaut, nous avons montré, dans le domaine temporel et dans le domaine spectral, que la détection de fissures débouchantes de profondeur 0,2 mm à 1 mm est réalisable sur le premier tour de propagation. En raison des propriétés géométriques de l'échantillon, nous avons constaté un effet cumulatif sur l'énergie des ondes réfléchies par la fissure en fonction du nombre de tour de propagation. A l'aide d'une méthode de calcul du degré de ressemblance et en décomposant le signal ultrasonore temporel en fenêtres centrées sur chaque onde transmise, nous avons mis en évidence des défauts de profondeur 0,08 mm, quelle que soit leur position sur le cylindre. Dans le cas d'un tube, nous avons comparé la méthode sans contact mécanique à une méthode en immersion, développée au laboratoire, basée sur la décomposition de l'opérateur de retournement temporel (DORT). Nous avons mis en évidence la présence d'une fissure de profondeur égale à la moitié de l'épaisseur du tube par ces deux techniques de contrôle et probablement des conversions de mode au passage de la fissure à l'aide de la méthode DORT.
|
Page generated in 0.0497 seconds