• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Une Théorie des Constructions Inductives

Werner, Benjamin 02 May 1994 (has links) (PDF)
L'objet de cette thèse est la méta-théorie du Calcul des Constructions Inductives (CCI), c'est à dire les Calcul des Constructions étendu par des types et des prédicats inductifs. Le Calcul des Constructions a été présenté en 1985 par Thierry Coquand. Il s'agit d'un lambda-calcul typé qui, à travers l'isomorphisme dit de Curry-Howard, peut-être vu comme un formalisme logique. Ce système qui étend à la fois la logique d'ordre superieur de Church et les systèmes de Martin-Löf est particulièrement expressif du point de vue algorithmique et peut facilement être mis en oeuvre sur ordinateur.<br />Dans le Calcul des Constructions originel, les types de données (entiers, listes, sommes, etc) sont représentés dans le lambda-calcul à travers un codage imprédicatif. Cette solution est élégante mais conduit à un certain nombre de difficultés pratiques et théoriques. Pour y remédier, Thierry Coquand et Christine Paulin-Mohring on proposé d'étendre le formalisme par un mécanisme génerique de définitions inductives. C'est cette extension, utilisée dans le système Coq, qui est étudiée dans cette thèse. Le résultat essentiel est que le système vérifie bien la proprieté de normalisation forte. On en déduit les proprietés de cohérence logique, de confluence et de décidabilité du typage.<br />L'aspect le plus spectaculaire de l'extension par des types inductifs est la possibilité de définir de nouveaux types et de nouvelles propositions par récurrence structurelle (élimination forte). Cette caractéristique, qui donne toute sa signification à la notion de types dépendants, augmente énormément le pouvoir de la règle de conversion, et par là, la difficulté de la preuve de normalisation. L'interprétation de l'élimination forte dans une preuve de normalisation par réductibilité est la nouveauté essentielle de ce travail.<br />De plus, nous considérons ici un système avec eta-conversion. Une conséquence est que la propriété de confluence n'est plus combinatoire et doit être prouvée après la normalisation, ce qui augmente à nouveau la difficulté de la preuve de celle-ci. A ce titre, nous présentons également quelques résultats nouveaux sur des systèmes non-normalisants qui montrent que pour des lambda-calculs typés, la propriété de confluence est logique et non combinatoire.
162

Modélisation et analyse de processus biologiques dans des algèbres de processus

Zhang, Min 27 April 2007 (has links) (PDF)
Dans cette thèse, trois calculs de processus sont étudiés et appliqués à l'analyse de processus biologiques : une variante du π -calcul introduite ici, le Iπ-calcul; le κ-calcul de Danos et Laneve et sa variante à grain plus fin, le mκ-calcul; et les systèmes réactifs bigraphiques de Milner. Le manuscrit comporte trois parties. <br />Dans la première partie, nous modélisons la transduction du signal, et plus spécifiquement le processus d'activation de la protéine "ras". On introduit une nouvelle extension du π-calcul, le Iπ-calcul, pour modéliser ce processus biologique en présence d'aberrance. Le calcul est obtenu en ajoutant deux actions aberrantes au Iπ-calcul. Le Iπ-calcul, quoique déjà assez expressif pour exprimer l'aberrance, peut être encore précisé par l'introduction d'informations supplémentaires dans la syntaxe, soit sous forme de "tags" soit sous forme de types. Les tags sont plus intuitifs, mais ils introduisent de la redondance, qui est éliminée dans la présentation de cette information sous forme de types. Nous montrons l'équivalence entre les deux espèces de décoration. Le système de types / tags présenté ici est très rudimentaire, mais notre espoir est de l'enrichir pour intégrer des paramètres quantitatifs tels que la température, la concentration, etc... dans la modélisation des processus biologiques.<br />Dans la seconde partie, nous abordons d'un point de vue formel la question de l'auto-assemblage dans le κ-calcul, un langage de description d'interactions protéine-protéine. Nous définissons un sous-ensemble de règles de calcul réversibles nous permettant d'assurer un codage sans blocage du calcul "à gros grain" (le κ-calcul) dans un calcul "à grain fin" (le mκ-calcul). Nous prouvons la correction de cette simulation de manière interne (à l'aide des règles réversibles), améliorant ainsi les résultats de Danos et Laneve.<br />Enfin, dans une partie plus prospective, nous suggérons comment l'on peut utiliser les bigraphes pour modéliser et analyser les processus biologiques. Nous montrons d'abord commment coder l'exemple "ras" dans ce formalisme. Puis nous indiquons sur un exemple comment l'on peut traduire le κ--calcul dans les bigraphes.
163

Typage et contrôle de la mobilité

Hym, Samuel 01 December 2006 (has links) (PDF)
Le calcul réparti est de plus en plus utilisé bien qu'il reste très mal maîtrisé. Cette thèse porte sur le Dpi-calcul, une extension simple du pi-calcul dans laquelle tous les processus sont placés dans des localités afin de décrire leur répartition. Dans ce calcul, les processus peuvent communiquer localement et migrer entre localités. À côté des canaux de communication et des localités, on identifie une nouvelle famille d'identifiants, les passeports, permettant un contrôle fin des migrations de processus : un processus doit disposer d'un passeport adéquat pour entrer dans une localité.<br /><br />Afin de structurer le calcul, on met en place un système de types qui associe un type à chaque identifiant pour vérifier qu'un processus n'utilise que les droits qu'il possède. L'ordre de sous-typage sur les types est étendu aux types de passeports suivant les localités d'origine des processus migrant. On démontre que cet ordre admet des bornes inférieures sous certaines conditions. On prouve également que les processus se conformant à cette politique de typage conservent cette propriété au cours de leurs réductions.<br /><br />On étudie aussi l'équivalence observationnelle : quand des processus exhibent-ils des comportements indiscernables pour un observateur ? En présence de passeports, il est indispensable d'imposer à l'observateur d'être loyal, c'est-à-dire d'exiger la possession de passeports pour observer les communications ayant lieu dans les localités correspondantes. Ces contraintes définissent une congruence dite barbue loyale. On développe ensuite un système de transitions étiquetées tel que la bisimilarité loyale engendrée coïncide avec cette congruence barbue loyale.
164

Développement et validation de schémas de calcul dédiés à l'interprétation des mesures par oscillation pour l'amélioration des données nucléaires

Gruel, Adrien 24 October 2011 (has links) (PDF)
Les mesures de réactivité par la technique d'oscillation, comme celles effectuées dans le réacteur Minerve, permettent de tester de nombreux paramètres neutroniques sur des matériaux, des combustibles ou des isotopes spécifiques. Généralement, les effets attendus sont très faibles, tout au plus de l'ordre de la dizaine de pcm. La modélisation de ces expériences doit donc être particulièrement précise, afin d'obtenir un retour fiable et précis sur les paramètres ciblés. En particulier, les biais de calcul doivent être clairement identifiés, quantifiés et maîtrisés afin d'obtenir des informations pertinentes sur les données nucléaires de base. L'enjeu de cette thèse est le développement d'un schéma de calcul de référence, dont les incertitudes sont clairement identifiées et quantifiées, permettant l'interprétation des mesures par oscillation. Dans ce document plusieurs méthodes de calcul de ces faibles effets en réactivité sont présentées, basées sur des codes de calculs neutroniques déterministes et/ou stochastiques. Ces méthodes sont comparées sur un benchmark numérique, permettant leur validation par rapport à un calcul de référence. Trois applications sont ici présentées dans le détail : une méthode purement déterministe utilisant la théorie des perturbations exacte pour la qualification des sections efficaces des principaux produits de fission en REP, dans le cadre d'études sur l'estimation de la perte du réactivité du combustible au cours du cycle ; une méthode hybride, basée sur un calcul stochastique et la théorie des perturbations exacte, permet d'obtenir un retour précis sur les données nucléaires de bases d'isotopes, dans notre cas l'241Am; et enfin, une troisième méthode, reposant sur un calcul perturbatif Monte Carlo, est utilisée pour une étude de conception.
165

Exploitation d'infrastructures hétérogènes de calcul distribué pour la simulation Monte-Carlo dans le domaine médical

Pop, Sorina 21 October 2013 (has links) (PDF)
Les applications Monte-Carlo sont facilement parallélisables, mais une parallélisation efficace sur des grilles de calcul est difficile à réaliser. Des stratégies avancées d'ordonnancement et de parallélisation sont nécessaires pour faire face aux taux d'erreur élevés et à l'hétérogénéité des ressources sur des architectures distribuées. En outre, la fusion des résultats partiels est également une étape critique. Dans ce contexte, l'objectif principal de notre travail est de proposer de nouvelles stratégies pour une exécution plus rapide et plus fiable des applications Monte-Carlo sur des grilles de calcul. Ces stratégies concernent à la fois le phase de calcul et de fusion des applications Monte-Carlo et visent à être utilisées en production. Dans cette thèse, nous introduisons une approche de parallélisation basée sur l'emploi des tâches pilotes et sur un nouvel algorithme de partitionnement dynamique. Les résultats obtenus en production sur l'infrastructure de grille européenne (EGI) en utilisant l'application GATE montrent que l'utilisation des tâches pilotes apporte une forte amélioration par rapport au système d'ordonnancement classique et que l'algorithme de partitionnement dynamique proposé résout le problème d'équilibrage de charge des applications Monte-Carlo sur des systèmes distribués hétérogènes. Puisque toutes les tâches finissent presque simultanément, notre méthode peut être considérée comme optimale à la fois en termes d'utilisation des ressources et de temps nécessaire pour obtenir le résultat final (makespan). Nous proposons également des stratégies de fusion avancées avec plusieurs tâches de fusion. Une stratégie utilisant des sauvegardes intermédiaires de résultat (checkpointing) est utilisée pour permettre la fusion incrémentale à partir des résultats partiels et pour améliorer la fiabilité. Un modèle est proposé pour analyser le comportement de la plateforme complète et aider à régler ses paramètres. Les résultats expérimentaux montrent que le modèle correspond à la réalité avec une erreur relative de 10% maximum, que l'utilisation de plusieurs tâches de fusion parallèles réduit le temps d'exécution total de 40% en moyenne, que la stratégie utilisant des sauvegardes intermédiaires permet la réalisation de très longues simulations sans pénaliser le makespan. Pour évaluer notre équilibrage de charge et les stratégies de fusion, nous mettons en œuvre une simulation de bout-en-bout de la plateforme décrite ci-dessus. La simulation est réalisée en utilisant l'environnement de simulation SimGrid. Les makespan réels et simulés sont cohérents, et les conclusions tirées en production sur l'influence des paramètres tels que la fréquence des sauvegardes intermédiaires et le nombre de tâches de fusion sont également valables en simulation. La simulation ouvre ainsi la porte à des études paramétriques plus approfondies.
166

Méthodes numériques pour la résolution accélérée des systèmes linéaires de grandes tailles sur architectures hybrides massivement parallèles / Numerical methods for the accelerated resolution of large scale linear systems on massively parallel hybrid architecture

Cheik Ahamed, Abal-Kassim 07 July 2015 (has links)
Les progrès en termes de puissance de calcul ont entraîné de nombreuses évolutions dans le domaine de la science et de ses applications. La résolution de systèmes linéaires survient fréquemment dans le calcul scientifique, comme par exemple lors de la résolution d'équations aux dérivées partielles par la méthode des éléments finis. Le temps de résolution découle alors directement des performances des opérations algébriques mises en jeu.Cette thèse a pour but de développer des algorithmes parallèles innovants pour la résolution de systèmes linéaires creux de grandes tailles. Nous étudions et proposons comment calculer efficacement les opérations d'algèbre linéaire sur plateformes de calcul multi-coeur hétérogènes-GPU afin d'optimiser et de rendre robuste la résolution de ces systèmes. Nous proposons de nouvelles techniques d'accélération basées sur la distribution automatique (auto-tuning) des threads sur la grille GPU suivant les caractéristiques du problème et le niveau d'équipement de la carte graphique, ainsi que les ressources disponibles. Les expérimentations numériques effectuées sur un large spectre de matrices issues de divers problèmes scientifiques, ont clairement montré l'intérêt de l'utilisation de la technologie GPU, et sa robustesse comparée aux bibliothèques existantes comme Cusp.L'objectif principal de l'utilisation du GPU est d'accélérer la résolution d'un problème dans un environnement parallèle multi-coeur, c'est-à-dire "Combien de temps faut-il pour résoudre le problème?". Dans cette thèse, nous nous sommes également intéressés à une autre question concernant la consommation énergétique, c'est-à-dire "Quelle quantité d'énergie est consommée par l'application?". Pour répondre à cette seconde question, un protocole expérimental est établi pour mesurer la consommation d'énergie d'un GPU avec précision pour les opérations fondamentales d'algèbre linéaire. Cette méthodologie favorise une "nouvelle vision du calcul haute performance" et apporte des réponses à certaines questions rencontrées dans l'informatique verte ("green computing") lorsque l'on s'intéresse à l'utilisation de processeurs graphiques.Le reste de cette thèse est consacré aux algorithmes itératifs synchrones et asynchrones pour résoudre ces problèmes dans un contexte de calcul hétérogène multi-coeur-GPU. Nous avons mis en application et analysé ces algorithmes à l'aide des méthodes itératives basées sur les techniques de sous-structurations. Dans notre étude, nous présentons les modèles mathématiques et les résultats de convergence des algorithmes synchrones et asynchrones. La démonstration de la convergence asynchrone des méthodes de sous-structurations est présentée. Ensuite, nous analysons ces méthodes dans un contexte hybride multi-coeur-GPU, qui devrait ouvrir la voie vers les méthodes hybrides exaflopiques.Enfin, nous modifions la méthode de Schwarz sans recouvrement pour l'accélérer à l'aide des processeurs graphiques. La mise en oeuvre repose sur l'accélération par les GPUs de la résolution locale des sous-systèmes linéaires associés à chaque sous-domaine. Pour améliorer les performances de la méthode de Schwarz, nous avons utilisé des conditions d'interfaces optimisées obtenues par une technique stochastique basée sur la stratégie CMA-ES (Covariance Matrix Adaptation Evolution Strategy). Les résultats numériques attestent des bonnes performances, de la robustesse et de la précision des algorithmes synchrones et asynchrones pour résoudre de grands systèmes linéaires creux dans un environnement de calcul hétérogène multi-coeur-GPU. / Advances in computational power have led to many developments in science and its applications. Solving linear systems occurs frequently in scientific computing, as in the finite element discretization of partial differential equations. The running time of the overall resolution is a direct result of the performance of the involved algebraic operations.In this dissertation, different ways of efficiently solving large and sparse linear systems are put forward. We present the best way to effectively compute linear algebra operations in an heterogeneous multi-core-GPU environment in order to make solvers such as iterative methods more robust and therefore reduce the computing time of these systems. We propose new techniques to speed algorithms up the auto-tuning of the threading design, according to the problem characteristics and the equipment level in the hardware and available resources. Numerical experiments performed on a set of large-size sparse matrices arising from diverse engineering and scientific problems, have clearly shown the benefit of the use of GPU technology to solve large sparse systems of linear equations, and its robustness and accuracy compared to existing libraries such as Cusp.The main priority of the GPU program is computational time to obtain the solution in a parallel environment, i.e, "How much time is needed to solve the problem?". In this thesis, we also address another question regarding energy issues, i.e., "How much energy is consumed by the application?". To answer this question, an experimental protocol is established to measure the energy consumption of a GPU for fundamental linear algebra operations accurately. This methodology fosters a "new vision of high-performance computing" and answers some of the questions outlined in green computing when using GPUs.The remainder of this thesis is devoted to synchronous and asynchronous iterative algorithms for solving linear systems in the context of a multi-core-GPU system. We have implemented and analyzed these algorithms using iterative methods based on sub-structuring techniques. Mathematical models and convergence results of synchronous and asynchronous algorithms are presented here, as are the convergence results of the asynchronous sub-structuring methods. We then analyze these methods in the context of a hybrid multi-core-GPU, which should pave the way for exascale hybrid methods.Lastly, we modify the non-overlapping Schwarz method to accelerate it, using GPUs. The implementation is based on the acceleration of the local solutions of the linear sub-systems associated with each sub-domain using GPUs. To ensure good performance, optimized conditions obtained by a stochastic technique based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) are used. Numerical results illustrate the good performance, robustness and accuracy of synchronous and asynchronous algorithms to solve large sparse linear systems in the context of an heterogeneous multi-core-GPU system.
167

Transport branché et structures fractales / Branched transport and fractal structures

Pegon, Paul 21 November 2017 (has links)
Cette thèse est consacrée à l’étude du transport branché, de problèmes variationnels qui y sont liés et de structures fractales qui peuvent y apparaître. Le problème du transport branché consiste à connecter deux mesures de même masse par le biais d’un réseau en minimisant un certain coût, qui sera pour notre étude proportionnel à mLα afin de déplacer une masse m sur une distance L. Plusieurs modèles continus ont été proposés pour formuler le problème, et on s’intéresse plus particulièrement aux deux grands types de modèles statiques : le modèle Lagrangien et le modèle Eulérien, avec une emphase sur le premier. Après avoir posé proprement les bases de ces modèles, on établit rigoureusement leur équivalence en utilisant une décomposition de Smirnov des mesures vectorielles à divergence mesure. On s’intéresse par la suite à un problème d’optimisation de forme lié au transport branché qui consiste à déterminer les ensembles de volume 1 les plus proches de l’origine au sens du transport branché. On démontre l’existence d’une solution, décrite comme un ensemble de sous-niveau de la fonction paysage, désormais standard en transport branché. La régularité Hölder de la fonction paysage, obtenue ici sans hypothèse de régularité a priori sur la solution considérée, permet d’obtenir une borne supérieure sur la dimension de Minkowski de son bord, qui est non-entière et dont on conjecture qu’elle en est la dimension exacte. Des simulations numériques, basées sur une approximation variationnelle à la Modica-Mortola de la fonctionnelle du transport branché, ont été effectuées dans le but d’étayer cette conjecture. Une dernière partie de la thèse se concentre sur la fonction paysage, essentielle à l’étude de problèmes variationnels faisant intervenir le transport branché en ce sens qu’elle apparaît comme une variation première du coût d’irrigation. Le but est d’étendre sa définition et ses propriétés fondamentales au cas d’une source étendue, ce à quoi l’on parvient dans le cas d’un réseau possédant un système fini de racines, par exemple pour des mesures à supports disjoints. On donne une définition satisfaisante de la fonction paysage dans ce cas, qui vérifie en particulier la propriété de variation première et on démontre sa régularité Hölder sous des hypothèses raisonnables sur les mesures à connecter. / This thesis is devoted to the study of branched transport, related variational problems and fractal structures that are likely to arise. The branched transport problem consists in connecting two measures of same mass through a network minimizing a certain cost, which in our study will be proportional to mLα in order to move a mass m over a distance L. Several continuous models have been proposed to formulate this problem, and we focus on the two main static models : the Lagrangian and the Eulerian ones, with an emphasis on the first one. After setting properly the bases for these models, we establish rigorously their equivalence using a Smirnov decomposition of vector measures whose divergence is a measure. Secondly, we study a shape optimization problem related to branched transport which consists in finding the sets of unit volume which are closest to the origin in the sense of branched transport. We prove existence of a solution, described as a sublevel set of the landscape function, now standard in branched transport. The Hölder regularity of the landscape function, obtained here without a priori hypotheses on the considered solution, allows us to obtain an upper bound on the Minkowski dimension of its boundary, which is non-integer and which we conjecture to be its exact dimension. Numerical simulations, based on a variational approximation a la Modica-Mortola of the branched transport functional, have been made to support this conjecture. The last part of the thesis focuses on the landscape function, which is essential to the study of variational problems involving branched transport as it appears as a first variation of the irrigation cost. The goal is to extend its definition and fundamental properties to the case of an extended source, which we achieve in the case of networks with finite root systems, for instance if the measures have disjoint supports. We give a satisfying definition of the landscape function in that case, which satisfies the first variation property and we prove its Hölder regularity under reasonable assumptions on the measures we want to connect.
168

L'expertise économique dans la décision publique : le cas de la politique autoroutière (1960-2000) / The economic expertise in public decision - making : the case of the motorway policy (1960-2000)

Moura, Patrice 12 October 2016 (has links)
Le calcul économique appliqué aux choix des investissements routiers, mis au point par les ingénieurs-économistes du corps des ponts et chaussées, est un outil destiné à éclairer les choix des décideurs. Or, l’efficacité de cet outil ne se traduit pas ipso facto dans les choix, les décideurs se référant à une rationalité plus large où interviennent l’opportunité et la faisabilité politiques. Aussi, le calcul économique demeurera, malgré les tentatives des experts pour remédier à son incomplétude, insuffisamment inséré au sein du processus de décision. Cependant, la reconnaissance de l’expertise économique comme un attribut « exclusif » du corps des ponts et chaussées, au même titre que son expertise technique, va lui permettre dès le milieu des années 1960 de se voir confier la « propriété » du problème autoroutier. Fort de cette double reconnaissance, il pourra concevoir ses propres solutions, les faire valider et les mettre en œuvre. De simple outil de rationalisation des choix, le calcul économique deviendra un instrument de pouvoir au « service » des ambitions de ce corps. Mais à la fin des années 1980, la maturité économique du réseau autoroutier étant atteinte, le ministère des Finances, s’appuyant sur l’expertise de la direction de la Prévision, s’ingèrera dans les choix autoroutiers en usant d’une stratégie à laquelle se rallieront la Cour des comptes et le Commissariat Général du Plan, suite à une subtile « instrumentalisation » croisée visant à « déstabiliser » la direction des Routes du ministère de l’Equipement à partir des insuffisances de ses méthodes d’évaluation. Dans le contexte défavorable aux investissements autoroutiers des années 1990, le calcul économique se transformera en un outil de rationalisation du processus de décision, la direction des Routes devant s’adapter à son environnement pour continuer à dérouler le « ruban » autoroutier. Cette thèse propose un éclairage nouveau sur le rôle joué par le ministère des Finances, celui de « promoteur » du calcul économique. Elle est aussi plus largement une sociologie de l’administration à travers les rapports de force entre corps et une réflexion sur l’introduction de l’économie comme science de gouvernement.Cette thèse propose un éclairage nouveau sur le rôle joué par le ministère des Finances, celui de « promoteur » du calcul économique. Elle est aussi plus largement une sociologie de l’administration à travers les rapports de force entre corps et une réflexion sur l’introduction de l’économie comme science de gouvernement. / Economic calculation applied to the choice of road investments, developed by the economists engineers of roads and bridges, is a tool to enlighten the choices of policymakers. But the effectiveness of this tool does not result in the choices, policy makers referring to a wider rationality that involved the desirability and political feasibility. Also, the economic calculations remain despite attempts by experts to correct its incompleteness, insufficiently embedded in the decision process. However, recognition of economic expertise as an "exclusive" attribute of the Ponts et Chaussées (highways department), as well as technical expertise, will allow it in the mid-1960s to be given "ownership" of the highway case. With this dual recognition, it can design its own solutions, have them validated and implemented. Simple tool for rationalizing choices, economic calculation becomes an instrument of power to serve the ambitions of this department. But in the late 1980s, the economic maturity of the highway network being reached, the Ministry of Finance, based on the expertise of the direction of the Forecast, will interfere in the selection motorway making use of a strategy that will join the Court of Auditors and the General Planning Commission, following a subtle "instrumentation" window, to "destabilize" the direction of the Equipment Department of Roads from the shortcomings of its methods. In the context unfavorable to highway investments of the 1990s, economic calculation will become a tool for streamlining the decision process, the direction of the Routes to adapt to its environment to going on rolling out the "ribbon" highway.This thesis offers a new light on the role played by the Ministry of Finance, the "sponsor" of economic calculation. It is also more widely sociology of administration through the power relations between departments and thought on the introduction of economics as a science of government.This thesis offers a new light on the role played by the Ministry of Finance, the "sponsor" of economic calculation. It is also more widely sociology of administration through the power relations between departments and througt on the introduction of economics as a science of government.
169

Sur les limites empiriques du calcul : calculabilité, complexité et physique / On the empirical limitations on computation : computability, complexity and physics

Pégny, Maël 05 December 2013 (has links)
Durant ces dernières décennies, la communauté informatique a montré un intérêt grandissant pour les modèles de calcul non-standard, inspirés par des phénomènes physiques, biologiques ou chimiques. Les propriétés exactes de ces modèles ont parfois été l'objet de controverses: que calculent-ils? Et à quelle vitesse? Les enjeux de ces questions sont renforcés par la possibilité que certains de ces modèles pourraient transgresser les limites acceptées du calcul, en violant soit la thèse de Church-Turing soit la thèse de Church-Turing étendue. La possibilité de réaliser physiquement ces modèles a notamment été au coeur des débats. Ainsi, des considérations empiriques semblent introduites dans les fondements même de la calculabilité et de la complexité computationnelle, deux théories qui auraient été précédemment considérées comme des parties purement a priori de la logique et de l'informatique. Par conséquent, ce travail est consacré à la question suivante : les limites du calcul reposent-elles sur des fondements empiriques? Et si oui, quels sont-ils? Pour ce faire, nous examinons tout d'abord la signification précise des limites du calcul, et articulons une conception épistémique du calcul, permettant la comparaison des modèles les plus variés. Nous répondrons à la première question par l'affirmative, grâce à un examen détaillé des débats entourant la faisabilité des modèles non-standard. Enfin, nous montrerons les incertitudes entourant la deuxième question dans l'état actuel de la recherche, en montrant les difficultés de la traduction des concepts computationnels en limites physiques. / Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations.
170

Approches stochastiques pour le calcul des ponts aux séismes

Kahan, Michel 14 June 1996 (has links) (PDF)
Nous proposons dans cette étude quelques méthodes stochastiques pour le calcul des ponts aux séismes. Après avoir rappelé les représentations du mouvement sismique par spectres de réponse, densités spectrales de puissance et signaux temporels, nous introduisons des modèles de variabilité spatiale d'ondes sismiques. Nous en étudions l'effet sur la réponse linéaire des ponts grâce à une méthode de spectre de réponse pour structures multi-supportées. Nous proposons une méthode simplifiée permettant un calcul rapide de la sensibilité des ouvrages à de faibles variations spatiales des mouvements du sol et nous donnons un algorithme efficace pour le calcul de la réponse la plus défavorable lorsque les variations spatiales sont grandes et incertaines. Pour tenir compte du potentiel de ductilité des ponts, nous proposons une méthode de spectre de réponse tirant partie de la localisation des non-linéarités matérielles dans la structure (rotules plastiques, appareils d'appui). Les éléments non-linéaires sont remplacés par des éléments linéaires équivalents. Une technique de synthèse modale adaptée à la localisation des non-linéarités permet un calcul rapide de la réponse. Cette approche intègre le caractère aléatoire des sollicitations sans avoir recours à de coûteuses simulations de Monte-Carlo. Elle donne de bons résultats en termes de demande de ductilité et d'énergie dissipée par cycles d'hystérésis dans les éléments non-linéaires. Enfin, nous évoquons une technique de calcul de fiabilité de structures non-linéaires sous sollicitations stochastiques.

Page generated in 0.0468 seconds