71 |
Derivation, analysis and numerics of reduced ODE models describing coarsening dynamics of liquid dropletsKitavtsev, Georgy 29 January 2010 (has links)
Die vorliegende Arbeit beschaeftigt sich mit der Herleitung, Analyse und Numerik von reduzierten Systemen gewoehnlicher Differenzialgleichungen (bezeichnet als reduzierte Modelle), die einer Familie von eindimensionalen Schmierfilmgleichungen (lubrication equations) entsprechen. Diese Familie wurde von Muench et al. 06'' hergeleitet und beschreibt den Entnetzungsprozess von nanoskopischen duennen Fluessigkeitsfilmen auf hydrophoben Polymersubstraten als Folge von anziehenden van der Waals und abstossenden Born Intermolekularkraeften. Dabei wurden verschiedene Regime von Schlupf-Laengen auf der Grenzflaeche zwischen Fluessigkeit und Polymersubstrat betrachtet. Die letzte Phase des Entnetzungsprozesses ist durch eine sehr langsame Vergroeberungsdynamik der verbleibenden Tropfen charakterisiert. Reduzierte Modelle, hergeleitet aus den zugrunde liegenden Schmierfilmgleichungen, ermoeglichen die effiziente analytische und numerische Untersuchung des Vergroeberungsprozesses. Im ersten Teil dieser Studie leiten wir unter Verwendung von asymptotischen Methoden reduzierte Modelle fuer verschiedene Schmierfilmgleichungen ab. Der zweite Teil dieser Studie widmet sich einer neuen Methode fuer die Herleitung und die Begruendung solcher reduzierter Modelle. Diese Methode basiert auf der Idee der Reduktion auf eine Zentrumsmannigfaltigkeit. Zuerst beschreiben wir eine formale Reduktion auf eine sogenannte "approximative invariante" Mannigfaltigkeit. Danach betrachten wir die Linearisierung der Schmierfilmgleichung um den stationaeren Tropfen. Hier geben wir eine rigorose Herleitung fuer das asymptotische Verhalten des Spektrums bezuglich des kleinen Parameters epsilon. Fuer das entsprechende Eigenwertproblem belegen wir die Existenz von einer von epsilon abhaengigen Luecke im Spektrum, die eine wichtige Eigenschaft fuer die strenge Begruendung unserer formalen Reduktion auf die "approximative invariante" Mannigfaltigkeit ist. / In this dissertation the topic of reduced ODE models corresponding to a family of one-dimensional lubrication equations derived by Muench et al. 06'' is addressed. This family describes the dewetting process of nanoscopic thin liquid films on hydrophobic polymer substrates due to the presence of several intermolecular forces and takes account of different ranges of slip-lengths at the polymer substrate interface. Reduced ODE models derived from underlying lubrication equations allow for an efficient analytical and numerical investigation of the latest stage of the dewetting process: coarsening dynamics of the remaining droplets. We first give an asymptotical derivation of these models and use them to investigate the influence of slip-length on the coarsening dynamics. In the second part of the talk we present a new geometric approach which can be used for an alternative derivation and justification of above reduced ODE models and is based on a center-manifold reduction recently applied by Mielke and Zelik 08'' to a certain class of semilinear parabolic equations. One of the main problems for a rigorous justification of this approach is investigation of the spectrum of a lubrication equation linearized at the stationary solution, which describes physically a single droplet. The corresponding eigenvalue problem turns out to be a singularly perturbed one with respect to a small parameter epsilon tending to zero. For this problem we show existence of an epsilon-dependent spectral gap between a unique exponentially small eigenvalue and the rest of the spectrum.
|
72 |
Fonction d'autocorrélation partielle des processus à temps discret non stationnaires et applicationsLambert-Lacroix, Sophie 08 July 1998 (has links) (PDF)
Cette thèse présente la fonction d'autocorrélation partielle d'un processus non stationnaire ainsi que des applications dans le domaine spectral et dans le cadre des processus périodiquement corrélés. Après avoir introduit cette fonction, nous montrons qu'elle caractérise la structure au second ordre des processus non stationnaires. Son intérêt est d'être facilement identifiable par rapport à la fonction d'autocovariance qui doit être de type positif. De plus elle conduit de façon naturelle à la définition d'un nouveau spectre dépendant du temps. Ce dernier décrit, à chaque instant, une situation stationnaire dans laquelle le présent est corrélé avec le passé de la même façon que le processus non stationnaire au même instant. L'étude des propriétés de ce spectre permet de le comparer à deux autres de même nature. On se restreint ensuite à la classe particulière des processus périodiquement corrélés. La fonction d'autocorrélation partielle fournit une nouvelle paramétrisation qui permet, en particulier, d'étendre de façon naturelle la méthode du maximum d'entropie à cette situation. Enfin nous considérons l'estimation autorégressive dans le cadre de ces processus en proposant une estimation adéquate de ces paramètres. La comparaison avec les procédures existantes est effectuée en regroupant certaines d'entre elles dans une même méthodologie mais aussi par simulation. Nous étudions également le lien entre ces approches et celles du cas vectoriel stationnaire.
|
73 |
Computation over partial information : a principled approach to accurate partial evaluationSabourin, Ian 07 1900 (has links)
On est habitué à penser comme suit à un programme qui exécute: une donnée entre (un input), un moment passe, et un résultat ressort. On assume tacitement de l'information complète sur le input, le résultat, et n'importe quels résultats intermédiaires.
Dans ce travail-ci, on demande ce que ça voudrait dire d'exécuter un programme sur de l'information partielle. Comme réponse possible, on introduit l'interprétation partielle, notre contribution principale. Au lieu de considérer un seul input, on considère un ensemble de inputs possibles. Au lieu de calculer un seul résultat, on calcule un ensemble de résultats possibles, et des ensembles de résultats intermédiaires possibles.
On approche l'interprétation partielle à partir du problème de la spécialisation de programme: l'optimisation d'un programme pour certains inputs. Faire ça automatiquement porte historiquement le nom d'évaluation partielle. Ç'a été appliqué avec succès à plusieurs problèmes spécifiques. On croit que ça devrait être un outil de programmation commun, pour spécialiser des librairies générales pour usage spécifique - mais ce n'est pas le cas.
Souvent, une implantation donnée de l'évaluation partielle ne fonctionne pas uniformément bien sur tous les programmes. Ça se prête mal à un usage commun. On voit ce manque de régularité comme un problème de précision: si l'évaluateur partiel était très précis, il trouverait la bonne spécialisation, indépendamment de notre style de programme.
On propose donc une approche de principe à l'évaluation partielle, visant la précision complète, retirée d'exemples particuliers. On reformule l'évaluation partielle pour la baser sur l'interprétation partielle: le calcul sur de l'information partielle. Si on peut déterminer ce qu'on sait sur chaque donnée dans le programme, on peut décider quelles opérations peuvent être éliminées pour spécialiser le programme: les opérations dont le résultat est unique.
On définit une représentation d'ensembles qui ressemble à la définition en compréhension, en mathématiques. On modifie un interpréteur pour des programmes fonctionnels, pour qu'il calcule sur ces ensembles. On utilise un solver SMT pour réaliser les opérations sur les ensembles. Pour assurer la terminaison de l'interpréteur modifié, on applique des idées de l'interprétation abstraite: le calcul de point fixe, et le widening. Notre implantation initiale produit de bons résultats, mais elle est lente pour de plus gros exemples. On montre comment l'accélérer mille fois, en dépendant moins de SMT. / We are used to the following picture of an executing program: an input is provided, the program runs for a while, and a result comes out. We tacitly assume complete information about the input, the result, and any intermediate results in between.
In this work, we ask what it would mean to execute a program over partial information. As a possible answer, we introduce partial interpretation, our main contribution. Instead of considering a unique input, we consider a set of possible inputs. Instead of computing a unique result, we compute a set of possible results, and sets of possible intermediate results.
We approach partial interpretation from the problem of program specialization: the optimization of a program's execution time for certain inputs. Doing this automatically is historically known as partial evaluation. Partial evaluation has been applied successfully to many specific problems. We believe it should be a mainstream programming tool, to specialize general libraries for specific use - but such a tool has not been delivered.
One common problem is that a given implementation of partial evaluation is inconsistent: it does not work uniformly well on all input programs. This inconsistency makes it unsuited for mainstream use. We view this inconsistency as an accuracy problem: if the partial evaluator was very accurate, it would find the correct specialization, no matter how we present the input program.
We therefore propose a principled approach to partial evaluation, aimed at complete accuracy, removed from any particular example program. We reformulate partial evaluation to root it in partial interpretation: computation over partial information. If we can determine what we know about every piece of data in the program, we can decide which operations can be removed to specialize the program: those operations whose result is uniquely known.
We represent sets with a kind of mathematical set comprehension. We modify an interpreter for functional programs, to compute over these sets. We use an SMT solver (Satisfiability Modulo Theories) to perform set operations. To ensure termination of the modified interpreter, we apply ideas from abstract interpretation: fixed point computation, and widening. Our initial implementation produces good results, but it is slow for larger examples. We show how to speed it up a thousandfold, by relying less on SMT.
|
74 |
Effet de la régie de traite en début de lactation sur les performances zootechniques et sur certains paramètres métaboliques et immunologiques des vaches laitières multiparesCarbonneau, Élisabeth January 2012 (has links)
La période de transition, c'est-à-dire de 3 semaines avant à 3 semaines après la parturition, est une période critique pour les vaches laitières puisqu'elles font face à divers changements métaboliques et immunologiques. Pendant cette période, les vaches sont en état de balance énergétique négative causée par l'augmentation de la demande en nutriments pour la production laitière. Pour répondre à cette demande, les vaches doivent mobiliser leurs réserves corporelles ce qui peut entraîner d'importants problèmes de santé. Ce projet avait pour but d'évaluer si la traite incomplète ou la tétée pendant les 5 premiers jours de lactation peut diminuer les problèmes de santé suite à la parturition sans affecter la production laitière subséquente. Quarante-sept vaches Holstein multipares ont été assignées à l'un des 3 traitements suivants. Les vaches du traitement Témoin ont été complètement traites [i.e. traitées] 2x par jour; celles du traitement Incomplet ont été partiellement traites [i.e. traitées] (environ 1/3 du lait a été récolté) 2x par jour jusqu'au jour 5 et celles du traitement Tétée ont été laissées avec le veau qui pouvait téter ad libitum jusqu'au jour 5 en plus d'être traites complètement 1x par jour du jour 3 au jour 5.La production laitière, la consommation alimentaire, certains métabolites sanguins et quelques fonctions immunitaires ont été mesurés sur chacune des vaches. Les traitements n'ont pas affecté la production laitière subséquente des vaches et aucune différence n'a été observée entre les traitements pour la consommation alimentaire. Les vaches des traitements Partiels (Incomplet + Tétée) ont montré des concentrations sanguines 16% plus élevées en glucose, 21% plus faibles en acides gras non estérifiés et 44% plus faibles en bêtahydroxybutyrate. Ces différences de concentrations ont persisté jusqu'au jour 5 pour les acides gras non estérifiés et jusqu'au jour 21 pour le glucose et les bêta-hydroxybutyrate. Bref, les traitements Partiels ont permis d'améliorer la glycémie et de diminuer les concentrations en métabolites sanguins néfastes. Par contre, les fonctions immunitaires évaluées n'ont pas permis de mettre en évidence que la diminution de la récolte en lait en début lactation améliore le statut immunitaire des vaches laitières. Néanmoins, ils ont montré une différence significative entre le jour 2 et le jour 61 pour la prolifération des lymphocytes et la production d'interleukine-4. De plus, une corrélation négative a été observée entre la teneur en acides gras non estérifiés du sérum et la prolifération des lymphocytes. En conclusion, la diminution de la récolte en lait pendant les 5 premiers jours de lactation permet de réduire les désordres métaboliques sans avoir de répercussion négative sur la production laitière subséquente des vaches.
|
75 |
Contrôle supervisé de systèmes à évènements discrets temps-réelOuédraogo, Lucien January 2008 (has links)
Cette thèse porte sur la synthèse de superviseurs pour des systèmes a événements discrets temps-réel (SEDTRs) modélisés par des automates temporises (ATs). Comme l'espace d'états d'un AT est en général infini, et que la théorie du contrôle supervise de RAMADGE et WONHAM, que nous avons adaptée, est opérationnelle pour des automates a états finis (AEFs), nous avons utilisé l'approche consistant à transformer les ATs modélisant le procédé et la spécification sous la forme d'AEFs. Nous avons donc tout d'abord étendu et amélioré une méthode de transformation des ATs en AEFs particuliers appelés automates Set-Exp (ASEs). Cette méthode de transformation, appelée SetExp, permet de réduire le problème d'explosion des états et est appropriée pour le contrôle supervise de SEDTRs. Nous avons ensuite amélioré et étendu une méthode de contrôle centralise fondée sur SetExp, c'est-à-dire que les ATs modélisant le procédé et la spécification sont d'abord transformes en ASEs et le problème est résolu en adaptant la théorie de RAMADGE et WONHAM aux ASEs. Pour la résolution du problème de contrôle centralise, nous avons identifié les conditions d'existence de solution et avons proposé une procédure algorithmique pour la synthèse du superviseur le moins restrictif. Suite à cela, nous avons développé une méthode de contrôle modulaire, fondée sur SetExp et la méthode de contrôle centralise. Pour le contrôle modulaire également, nous avons identifié les conditions d'existence de solution et propose une procédure de synthèse de superviseurs modulaires les moins restrictifs. D'autre part, nous avons étendu la méthode de contrôle centralise fondée sur SetExp au cas où le superviseur a une observation partielle des événements du procédé. Pour cette méthode de contrôle sous observation partielle des événements, nous avons identifié les conditions d'existence de solution et propose une procédure pour synthétiser un superviseur sous observation partielle. Enfin, nous avons réalisé un outil logiciel appelé SEAtool, qui implémente la transformation SetExp et les méthodes de contrôle centralise et modulaire. Nous avons étudié, à l'aide de SEAtool, l'application de nos méthodes de contrôles centralise et modulaire a des systèmes concrets simples.
|
76 |
Logiques spatiales de ressources,<br />modèles d'arbres et applicationsBiri, Nicolas 09 December 2005 (has links) (PDF)
La modélisation et la spécification de systèmes distribués nécessitent une adaptation des modèles logiques utilisés pour leur représentation. Les notions<br />d'emplacements et de ressources jouent notamment un rôle centrale dans la représentation de ces systèmes.<br /><br />On propose tout d'abord à la proposition d'une première logique, la logique linéaire distribuée et mobile (DMLL) qui intègre les notions de distribution et de mobilité. On propose également une sémantique à la Kripke et un calcul des séquents supportant l'élimination des coupures pour cette logique.<br /><br />Cette première étude a mis en avant le rôle centrale de la sémantique pour la modélisation de systèmes distribués. On propose alors la structure des arbres de ressources, des arbres dont les noeuds possèdent des labels et contiennent des ressources appartenant à<br />monoïde partiel de ressources et BI-Loc, une logique pour raisonner sur ces arbres, un langage permettant de modifier les arbres et son axiomatisation correcte et complète sous forme de triplets de Hoare. Concernant BI-Loc, on détermine des conditions suffisantes pour décider de la satisfaction et de la validité par model-checking et on développe une méthode de preuves fondée sur les tableaux sémantiques correcte et complète.<br /><br />On montre comment on peut raisonner sur les tas de pointeurs grâce aux arbres de ressources. Enfin, on détermine comment le modèle des arbres partiel peut être utilisé pour représenter et spécifier les données<br />semi-structurées et raisonner sur la transformation de ce type de données.
|
77 |
Contribution à l'étude de la théorie du contrôle aux dérivées partiellesHaddak, Akli 12 November 1990 (has links) (PDF)
Généralisation de la théorie du contrôle classique développée pour les E.D.O. au cas des E.D.P. Reformulation des critères de la théorie du contrôle suivant 2 approches : théorie formelle des E.D.P. et algèbre différentiel. Un accent tout particulier est accordé au critère de contrôlabilité dont la généralisation aux E.D.P. constitue l'apport essentiel de cette étude. L'approche algébrique est utilisée pour conduire à un raisonnement qui permet la généralisation et la clarification de ces critères. Cependant c'est la théorie des E.D.P. qui permet d'élaborer des tests pour vérifier ces critères sur machine grâce a des logiciels de calcul formel. Nouvelle théorie du contrôle appliquée à de nombreux exemples de la physique (tourbillons de Bénard, dynamique des câbles, équations d'Euler, équations de Maxwell...) et des calculs explicites de degré de transcendance différentielle très complexes.
|
78 |
Développement d'un modèle de cavitation à poche sur hydrofoils et hélices en régimes transitoires, implémentation sur codes potentiels et validation expérimentalePhoemsapthawee, Surasak 20 November 2009 (has links) (PDF)
Un modèle de cavitation à poche partielle a été développé et implémenté dans un code potentiel bidimensionnel stationnaire puis dans un code potentiel tridimensionnel instationnaire. L'originalité de la méthode est d'utiliser la technique des vitesses de transpiration pour simuler la présence de la poche de cavitation. Cette méthode permet une fermeture naturelle de la poche sans avoir à imposer un quelconque artifice dans le modèle ou dans la méthode de calcul. Adaptable à tout solveur de modèle d'écoulement, le modèle couplé aux codes potentiels permet, grâce à cette technique, une simulation raisonnablement rapide de l'écoulement cavitant sur un hydrofoil ou une hélice en régime d'écoulement stationnaire ou instationnaire. Le modèle a été validé par comparaison avec des essais en régime stationnaire sur un profil bidimensionnel. On retrouve numériquement les longueurs de poche observées lors des essais ainsi que les pressions mesurées. Quant à l'écoulement tridimensionnel, des résultats disponibles dans la littérature n'ont permis que la validation qualitative au niveau de la longueur de poche. Une campagne d'essais en collaboration avec le BSHC pour mesurer la portance et la traînée d'un hydrofoil a alors été effectuée avec pour objectif la validation tridimensionnelle quantitative. Les résultats obtenus montrent une bonne concordance entre les mesures expérimentales et les résultats numériques, ce qui permet de conclure de façon satisfaisante quant à la validation du modèle. Finalement, des résultats de simulations instationnaires sur des hélices en régime cavitant sont présentés. Les résultats numériques montrent que la cavitation à poche partielle affecte très peu les performances hydrodynamiques de l'hélice.
|
79 |
Apport des données radar polarimétriques pour la cartographie en milieu tropicalLardeux, Cédric 09 December 2008 (has links) (PDF)
Les capteurs RSO (Radar à Synthèse d'Ouverture) fournissent des observations des surfaces terrestres de manière continue depuis 1991 avec la mise en orbite du satellite ERS-1. Les données acquises jusqu'à peu, principalement basées sur l'exploitation de l'intensité du signal acquis selon une configuration de polarisation particulière, ont été l'objet de nombreuses études, notamment sur le suivi de la déforestation. Depuis 2007, de nouveaux capteurs RSO polarimétriques (PALSAR, RADARSAT-2, TerraSAR-X...) permettent la caractérisation polarimétrique des surfaces observées. Ces données nécessitent des traitements adpatés afin d'en extraire l'information la plus pertinente pour la thématique considérée. L'objet de ces travaux a été d'évaluer leur potentiel pour la cartographie de surfaces naturelles en milieu tropical. L'apport des multiples indices polarimétriques a été évalué à partir de l'algorithme de classification SVM (Machines à Vecteurs de Support). Cet algorithme est spécialement adapté pour prendre en compte un grand nombre d'indices non forcément homogènes. Les données utilisées ont été acquises par le capteur aéroporté AIRSAR sur une île en Polynésie Française. De nombreux relevés in situ ont permis la validation des résultats obtenus. Les résultats montrent que la sensibilité de ces données à la structure géométrique des surfaces observées permet une bonne discrimination entre les différents couvert végétaux étudiés, en particulier des types de forêts. De plus, la classification obtenue à partir de la méthode SVM est particulièrement plus performante que la classification usuelle basée sur la distribution de Wishart vérifiée a priori par les données radar. Ces résultats laissent présager de l'apport significatif des données radar polarimétriques futures pour le suivi des surfaces naturelles
|
80 |
Facteurs environnementaux, éléments du paysage et structure spatiale dans la composition des herbiers submergés du lac Saint-François, fleuve Saint-LaurentLéonard, Rosalie January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0491 seconds