• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • Tagged with
  • 10
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche énergétique pour l'ordonnancement de tâches sous contraintes de temps et de ressources

Lopez, Pierre 23 September 1991 (has links) (PDF)
Ce travail propose une approche originale pour l'ordonnancement de tâches sous contraintes de temps et de ressources. Les méthodes et techniques développées s'inscrivent dans la problématique de l'"Analyse Sous Contraintes" (A.S.C.) des problèmes d'ordonnancement. Cette A.S.C. vise à caractériser les ordonnancements admissibles de manière à proposer au décideur un choix d'actions cohérentes vis-à-vis des contraintes, tout en lui offrant une certaine flexibilité face à des aléas éventuels. L'A.S.C. est décrite comme un processus d'inférence mettant en interaction une base de règles et une base de faits temporels et séquentiels représentant les caractéristiques des ordonnancements admissibles. Un logiciel (MASCOT) écrit en Prolog-II a été réalisé selon ce principe. Une nouvelle approche pour l'A.S.C. et plus particulièrement pour le raisonnement temporel sous contraintes de ressources a été développée. L'originalité de cette approche réside essentiellement dans la prise en compte du couplage temps/ressource à l'aide du concept d'intervalle temps-ressource qui conduit à utiliser un raisonnement énergétique. L'intervalle temps-ressource permet de représenter à la fois les tâches ou intervalles consommateurs et les intervalles de temps alloués sur lesquels des ressources sont disponibles, appelés intervalles fournisseurs. Le problème de l'ordonnancement de tâches amène à étudier l'interaction entre intervalles consommateurs et fournisseurs sur la base de considérations énergétiques. Le logiciel MASCOT met en jeu un processus de déduction symbolique. Ce type de déduction a été amélioré par la prise en compte de l'énergie obligatoirement consommée ou consommation obligatoire d'intervalles consommateurs sur un intervalle fournisseur. De nouvelles règles de déduction ont été écrites et intégrées dans MASCOT. D'autre part, un processus de déduction basé sur un raisonnement purement énergétique a été élaboré et implémenté (logiciel REPORT) en Prolog-II. Il utilise un autre type de déduction, la déduction numérique, qui permet d'affiner les bornes temporelles d'un intervalle fournisseur en considérant la consommation obligatoire des autres intervalles consommateurs. En d'autres termes, ces résultats consistent à actualiser des dates limites et correspondent à des conditions nécessaires d'admissibilité ; ils permettent ainsi de détecter des infaisabilités éventuelles. L'outil de modélisation utilisé est le graphe potentiels-bornes qui permet de représenter des contraintes numériques (sur la durée des tâches par exemple) et des contraintes symboliques entre intervalles. Il sert de support à un processus d'inférence par propagation numérique des contraintes.
2

Sur les types de données dans les langages logico-fonctionnels : Réécriture et surréduction des graphes admissibles

Janodet, Jean-Christophe 24 January 2000 (has links) (PDF)
Les langages logico-fonctionnels sont des langages de programmation de très haut niveau permettant de définir dans un formalisme unifié des types de données, des fonctions et des prédicats (relations). Plusieurs propositions de langages logico-fonctionnels ont été faites mais toutes se restreignent à des calculs basés sur les termes du premier ordre. Cette restriction permet de programmer avec des types abstraits algébriques mais elle rend difficile la manipulation des structures de données du monde réel, modélisées sous la forme de graphes cycliques. L'objectif de cette thèse est donc d'introduire les graphes cycliques comme structure de données de base des langages logico-fonctionnels. Pour cela, nous voyons les programmes comme des systèmes de réécriture de graphes cycliques et nous étudions les relations de réécriture et de surréduction qu'ils induisent (sémantique opérationnelle). Une propriété importante de la réécriture concerne la confluence : elle exprime le déterminisme des calculs effectués. De nombreux résultats de confluence existent pour la réécriture de termes mais ils ne s'étendent généralement pas aux graphes cycliques. Nous mettons en évidence une classe de graphes cycliques particuliers, les graphes admissibles, pour laquelle nous donnons une preuve de confluence de la réécriture. Concernant la relation de surréduction, nous en proposons une définition puis nous montrons que ce calcul est cohérent et complet par rapport à celui de la réécriture dans le cadre des graphes admissibles. Nous étudions ensuite plusieurs stratégies de réécriture et de surréduction de graphes admissibles, c'est-à-dire des algorithmes permettant d'éliminer des calculs inutiles ou redondants. Nous montrons que nos stratégies sont optimales selon de nombreux critères dépendants des systèmes de réécriture considérés.
3

Contribution à la mise en oeuvre d'estimateurs d'erreur pour les problèmes de contact dans un logiciel industriel. / Error estimator implemented in finite element industrial code for contact

Pavot, Sylvain 28 June 2016 (has links)
La simulation numérique est devenue un outil omniprésent dans les milieux industriels. En particulier, dans le domaine de l’ingénierie mécanique où l’objectif est de prévoir la réponse d'une structure à des sollicitations. La simulation est dans ce cas une aide au dimensionnement qui permet de réduire le développement de prototypes coûteux. Les systèmes étudiés en bureau d’études étant de plus en plus complexes, il est courant de traiter des structures comportant plusieurs composants déformables en interaction. Le contexte d’étude repose donc sur les équations de la mécanique des milieux continus avec prise en compte du contact. Cependant, l’obtention des solutions exactes de ce système d’équation aux dérivées partielles n’est en général pas envisageable. L’obtention d’une solution passe par l'utilisation d’une discrétisation du modèle. Ainsi le résultat obtenu est une approximation de la solution exacte du problème traité. En situation industrielle il est nécessaire de pouvoir contrôler la qualité de ce résultat approché, c’est à dire mesurer l’écart entre la solution exacte (inconnue) et la solution approchée (disponible), ce sont des outils de vérification. Il existe de nombreux travaux sur l’estimation d’erreur permettant d’évaluer l’écart entre les solutions exactes et approchées. Malgré cela, l’utilisation des outils de vérification (estimateur de l’erreur commise) reste encore peu répandue dans l’industrie (disponibilité dans les codes de calculs, fiabilité, coûts de calcul, difficulté d’utilisation …) Dans ce travail, nous proposons une méthode d’estimation d’erreur, basée sur le concept d’erreur en relation de comportement, parallélisable et permettant s’adapter aux contraintes industrielles (pertes d’information, problèmes mal connus …). De plus, afin de la rendre l’outil rapidement disponible en bureau d’étude, le choix a été fait de développer la méthode directement dans le code de calcul industriel SAMCEF lors du projet ANR ROMMA. / In the field of mechanical engineering, numerical simulation has become an indispensable tool to predict the response of a structure to mechanical load.The simulation allows to reduce conception costs using numerical models instead of costly prototypes.Engineers use increasingly complex structures; it is now common to treat structures composed of several deformable components interacting. The studies carried out in this work are based on the equations of continuum mechanics with contact.However, these numerical simulations involve a discretized version of a continuous mathematical model (finite element analysis). Therefore, they lead only to an approximation of the exact solution of the reference problem.In an industrial context, the results of a finite element calculation must satisfy certain quality requirements. The purpose of an error estimation is to evaluate the distance between the exact solution and an approximate solution of the problem.Methods for evaluating the global error due to the problem's discretization have been studied for several years. However the use of error estimation tools is still not widespread in industry (availability in industrial softwares , reliability, calculation costs, difficulty of use ...)The objective of this work is to propose a parallelized estimation method based on the concept of constitutive relation error, adapted to industrial constraints. Furthermore, to make it quickly available for design office, the choice was made to develop the method directly in the industrial software SAMCEF during the ANR project ROMMA.
4

Construction de liens entre algorithmique et logique par du calcul à temps infini / From algorithmics to logic through infinite time computations

Ouazzani, Sabrina 02 December 2016 (has links)
Cette thèse s'inscrit dans le contexte du calcul en temps infini. Par cette désignation, nous faisons référence au temps indicé par des ordinaux, ces derniers possédant de bonnes propriétés pour ``compter''en leur long. En 2000, le modèle des machines de Turing à temps infini fut proposé par Hamkins et Lewis. Ce modèle généralise le processus de calcul des machines de Turing aux étapes de temps représentées par des ordinaux. Dans ce modèle de calcul, les étapes sont indicées par des ordinaux dénombrables, bien que le ruban soit toujours indicé par des entiers naturels. Les entrées du modèle sont donc les suites infinies de lettres. Un certain nombre de comportements nouveaux et étonnants apparaissent avec ces machines. Dans notre thèse, nous nous intéressons à certains de ces comportements.Naturellement, plus les temps de calcul sont longs, plus le modèle est puissant, et plus il devient possible de décider de nouveaux ensembles.À partir d’ordinaux assez grands, de nouvelles propriétés structurelles apparaissent également. L'une d'entre elles est l'existence de brèches dans les temps possibles d'arrêts de programmes. Lorsque ces brèches furent découvertes, de premiers liens entre elles et le caractère admissible des ordinaux qui les commencent furent établis. Notre approche utilise l'algorithmique pour préciser les liens entre les propriétés logiques des ordinaux et les propriétés calculatoires de ces machines à temps infini.Plus précisément, grâce à des des algorithmes spécifiques, nous découvrons et prouvons de nouvelles propriétés sur ces brèches,amenant à une meilleure compréhension de leur structure. Nous montrons notamment que les brèches peuvent être de toutes les tailles (limites) écrivables, qu'il en existe même de taille au moins aussi grande que leur ordinal de début. Jusqu’à la première brèche ayant cette caractéristique, la structure des brèches est assez proche de celle des ordinaux : elles apparaissent en ordre croissant en fonction de leur taille. Nous montrons également que jusqu'à cette brèche spéciale, si les ordinaux admissibles sont exactement les ordinaux débutant les brèches, au-dessus, des ordinaux admissibles peuvent apparaître au milieu de très grandes brèches et la structure des brèches devient désordonnée. / This thesis is centred on the study of infinite time computations. Infinite time here means having a time axis indexed by ordinals — the ordinals are convenient objects along which we can count. The infinite time Turing machine model was introduced by Hamkins and Lewis in 2000. This model generalises the Turing machine computation model to ordinal time. In this model, stages are indexed by (countable) ordinals, even though the tape is indexed by the integers as in the classical model. This model can thus now have infinite strings as input. The main focus of this thesis is the study of some of the new and surprising behaviours that these machines exhibit. Naturally, the longer, i.e., the greater ordinal, the computations run, the more powerful the model is, i.e. it computes/recognizes more sets. If the computations run beyond certain ordinal times, new structural properties also appear. One of these properties is the existence of gaps in the halting times of the machines. When these gaps had been discovered, some first links had been established between these gaps and the admissible character of the ordinals starting them. Our approach uses algorithmics as a mean to emphasize the links between the logical properties of the ordinals involved and the computational properties of the infinite time Turing machines. Moreover, thanks to some specific algorithms, we discover and prove new properties of these gaps, leading to a better understanding of their structure. We show in particular that gaps can have precisely every possible writable ordinal size and that there are gaps whose length is greater or equal than their starting ordinal point. Until the first of such a gap, the gaps appear in increasing sizes. We also show that even if, before this special gap, admissible ordinals only appear at the beginning of gaps, the gaps structure becomes quite disordered beyond that point, with admissible ordinals appearing not only at the beginning but also inside some (huge) gaps.
5

Modélisation asymptotique et analyse numérique d'un problème de couplage fluide-structure

Poutous, Cécile 25 October 2006 (has links) (PDF)
Quelles sont les déformations et les contraintes que subissent une structure gonflée précontrainte lorsqu'elle est soumise à des perturbations de son environnement extérieur? Cette thèse répond à cette interrogation dans le cas d'un lobe formé de deux membranes orthotropes, fixées sur leurs longueurs à deux axes rigides, successivement rectilignes puis légèrement arrondis, et sur leurs largeurs à des arcs de cercle également rigides. L'intérieur est gonflé par un gaz supposé parfait.<br /> A partir d'une modélisation mécanique en élasticité linéaire, nous avons établi un modèle mathématique rigoureux en 3D. Puis en faisant tendre l'épaisseur des membranes vers zéro, nous avons obtenu un modèle asymptotique 2D, bien posé pour certaines forces, dites admissibles, dans des espaces obtenus par complétion. Nous avons alors démontré que la suite des valeurs moyennes dans l'épaisseur des solutions des problèmes 3D converge fortement vers l'unique solution du problème asymptotique. Nous avons de plus mis en évidence des conditions suffisantes d'admissibilité des forces extérieures.<br /> L'analyse numérique du modèle asymptotique a montré que les estimations d'erreur a priori se font dans la norme de l'énergie. Ce qui, comme l'ont confirmé quelques essais numériques, ne va pas sans poser de problèmes quand on s'intéresse aux déplacements, mais est tout à fait satisfaisant du point de vue des contraintes.
6

Localisation de représentations localement analytiques admissibles / Localization of admissible locally analytic representations

Sarrazola Alzate, Andrés 26 July 2019 (has links)
Soit G un schéma en groupes réductif, connexe et déployé sur l’anneau d’entiers d’une extension finie du corps de nombres p-adiques. Un théorème important dans la théorie des groupes c’est le théorème de localisation, ce qui a été démontré par A. Beilinson et J. Bernstein, et par J.L. Brylinsky et M. Kashiwara. Il s’agit d’un résultat de D-affinité pour la variété de drapeaux de la fibre générique de G. En caractéristique mixte un progrès important se trouve dans les travaux de C. Huyghe et T. Schmidt. Ils donnent une réponse partielle en considérant des caractères algébriques. Les premières quatre chapitres de cette thèse sont consacrés à étendre cette correspondance (le théorème de localisation arithmétique) pour des caractères arbitraires. Dans les chapitres cinq et six, nous traiterons l’objectif principal de cette thèse qui concerne les représentations localement analytiques. Nous montrerons que pour un caractère algébrique, qui est de plus dominant et régulier, la catégorie des représentations admissibles localement analytiques, à caractère central, c’est équivalente à une catégorie de modules arithmétiques coadmissibles et équivariants sur la famille des modèles formels de la variété de drapeaux rigide. / Let G be a split connected, reductive group scheme over the ring of integers of a finite extension of the field of p-adic numbers.. An important theorem in group theory is the localization theorem, demonstrated by A. Beilinson and J. Bernstein, and by J.L. Brylinsky and M. Kashiwara. This is a result about the D-affinity of the flag variety of the generic fiber of G). In mixed characteristic an important progress is found in the work of C. Huyghe and T. Schmidt. They give a partial answer by considering algebraic characters. The first four chapters of this thesis are dedicated to extending this correspondence (the arithmetic localization theorem) for arbitrary characters. In chapters five and six, we will treat the principal objective of this thesis, which concerns admissible locally analytic representations. We will show that for an algebraic character, which is dominant and regular, the category of admissible locally analytic representations, with central character, it is equivalent to the category of coadmissible equivariant arithmetic modules over the family of formal models of the rigid flag variety.
7

Contrôle d’erreur pour et par les modèles réduits PGD / Error control for and with PGD reduced models

Allier, Pierre-Eric 21 November 2017 (has links)
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque. / Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart.
8

Compactification ELSV des champs de Hurwitz / ELSV compactification of Hurwitz stacks

Dudin, Bashar 15 October 2013 (has links)
On s'intéresse à une compactification, due à Ekedahl, Lando, Shapiro et Vainshtein, du champ des courbes lisses munies de fonctions méromorphes d'ordres fixés. Celle-ci est obtenue comme une adhérence du champ de départ dans un champ propre. On commence par en donner deux constructions alternatives et on étudie les déformations de ses points. On la relie par la suite à la compactification à la Harris-Mumford par les revêtements admissibles et on donne une interprétation modulaire des points du bord. / We study a compactification, due to Ekedahl, Lando, Shapiro and Vainshtein, of the stack of smooth curves endowed with meromorphic functions having fixed orders. The original compactification is obtained as the closure of the initial stack in a proper substack. We start by giving two alternative constructions of the E.L.S.V compactification and by studying the deformation theory of its points. We finally link it to the Harris-Mumford compactification by admissible covers and give a modular interpretation of boundary points.
9

Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique / Towards a robust and effective strategy for the control of finite element computations in mechanical engineering

Pled, Florent 13 December 2012 (has links)
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel. / This research work aims at contributing to the development of innovative global and goal-oriented error estimation tools applied to Computational Mechanics. The global error estimators considered rely on the concept of constitutive relation error through specific techniques for constructing admissible fields ensuring the recovery of strict and high-quality error estimates. A new hybrid method for constructing admissible stress fields is set up and compared to two other techniques with respect to three different criteria, namely the quality of associated error estimators, the computational cost and the simplicity of practical implementation into finite element codes. An enhanced version of this new technique based on local minimization of the complementary energy is also proposed. Judicious geometric and energetic criteria are introduced to select the relevant zones for optimizing the quality of the admissible fields locally. In the context of goal-oriented error estimation based on the use of both extraction techniques and global error estimators, two new improved bounding techniques are proposed. They lean on Saint-Venant's principle through specific homotheticity properties in order to obtain guaranteed and relevant bounds of better quality than with the classical bounding technique based on the Cauchy-Schwarz inequality. The various comparative studies are conducted on linear elasticity problems under quasi-static loading conditions. The behaviour of the different error estimators is illustrated and discussed through several numerical experiments carried out on industrial cases. The associated results may open up opportunities and help broaden the field of model verification for both academic research and industrial applications.
10

Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique

Pled, Florent 13 December 2012 (has links) (PDF)
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel.

Page generated in 0.0668 seconds