Spelling suggestions: "subject:"calcul."" "subject:"oalcul.""
981 |
Validation et formulation variationnelle d'une loi de comportement viscoélastique non linéaire en grandes déformationsHassani, Seddiq 31 October 1997 (has links) (PDF)
On développe un modèle viscoélastique non linéaire en grandes déformations, appelé modèle pseudo-linéaire. Ce modèle est basé sur un choix particulier d'une mesure de déformation permettant d'écrire le potentiel d'énergie libre sous forme quadratique et la loi de comportement sous forme d'une convolution simple. Afin de valider ce modèle, on compare le potentiel pseudo-linéaire à un potentiel d'énergie libre écrit sous la forme générale d'un développement de Fréchet d'ordre 4. Les fonctions de relaxation de ce potentiel sont écrites sous forme d'exponentielles décroissantes à un temps caractéristique par décade. Cette comparaison montre une bonne concordance entre les deux descriptions. La formulation proposée permet de calculer simplement la dissipation dans le matériau. Une illustration est donnée dans le cas d'oscillations harmoniques. On développe alors une formulation variationnelle associée au modèle pseudo-linéaire basée sur la minimisation de l'énergie totale. On effectue une approximation linéaire en temps et on propose une procédure numérique de résolution. On construit alors un code de calcul par éléments finis et on le valide dans le cas de comportements simples en comparant les solutions analytiques aux résultats numériques.
|
982 |
Modélisation numérique du creusement d'un tunnel à l'aide d'un bouclier à pression de boueAtahan, Cem 30 January 1995 (has links) (PDF)
Cette étude porte sur la modélisation numérique du creusement de tunnels à l'aide de boucliers à front pressurisé et notamment sur l'adaptation de la méthode du ramollissement, initialement mise au point pour le calcul, en coupe bidimensionnelle, de tunnels creusés à l'aide de procédés non mécanisés. La thèse est composée de 8 chapitres et comprend une étude bibliographique concernant le calcul des ouvrages souterrains, une analyse de la réponse du terrain à une pressurisation du front de taille à partir des calculs axisymétriques, la mise au point d'une méthode permettant de reproduire, dans un calcul plan, en coupe transversale, les effets mis en évidence en conditions axisymétriques et l'application de cette méthode à l'analyse d'un ouvrage instrumenté dans le département du Val-de-Marne. Cet ouvrage a été équipé d'inclinomètres et d'extensomètres installés dans le terrain, ainsi que de témoins à cordes vibrantes disposés dans un anneau de revêtement. Les mesures ont permis d'analyser la réponse du massif encaissant et de l'ouvrage de soutènement au cours des différentes étapes de creusement. Le creusement de cet ouvrage a été simulé à l'aide de la méthode de calcul développée dans le cadre de ce travail et les résultats de calculs confrontés à ceux donnés par les mesures.
|
983 |
Analyse par la théorie du calcul à la rupture des facteurs de réduction de la capacité portante de fondations superficiellesGarnier, Denis 06 July 1995 (has links) (PDF)
Si le problème de la capacité portante d'une fondation superficielle posée sur un massif plan semi-infini est aujourd'hui bien maîtrisé, il n'en est plus de même dès que l'on s'éloigne de cette configuration de référence. Ce travail s'attache donc à étudier à l'aide de la théorie du calcul à la rupture, la réduction de la capacité portante de la fondation superficielle soumise à différents modes de chargement, due notamment à la proximité d'une pente ou une excavation. L'étude est abordée dans un premier temps, dans le cadre d'une approche bidimensionnelle du problème (cas de la semelle filante), puis dans une seconde partie, une analyse tridimensionnelle est menée (fondation rectangulaire). Une confrontation des résultats obtenus avec ceux établis par des travaux expérimentaux permet une validation de l'étude et conduit à une réflexion sur la construction du critère de résistance du matériau constitutif du massif, et notamment sur sa forme dans le domaine des faibles contraintes de compression.
|
984 |
Techniques de commande optimale pour la recherche automatique de stratégies avec assistances gravitationnelles dans le cadre de missions interplanétairesOlympio, Joris 27 October 2008 (has links) (PDF)
Cette thèse porte sur la conception de trajectoires interplanétaires, à poussée faible. Les systèmes de propulsion électriques, à poussée faible ou continue, ont permis d'accroître significativement les possibilités de trajectoires, au détriment de mission plus longues. La poussée faible limite également la manoeuvrabilité du système. Afin de parer à ces inconvénients, on utilise généralement des manoeuvres d'assistances gravitationnelles, pour ainsi réduire la consommation et la durée de transfert de la sonde. Le rôle de l'analyste mission est donc de déterminer le meilleur scénario (la séquence de planètes à visiter). De nos jours, ce problème est résolu de manière expérimentale et heuristique. Cependant, bien que la trajectoire produite soit optimale à scénario donné, il n'y a aucune garantie que le scénario en lui-même soit optimal. De plus, cette approche est relativement fastidieuse. Notre objectif a donc été de mettre en place des outils et méthodes permettant de trouver des scénario optimaux pour un objectif fixé. Durant cette thèse, nous avons suivit 2 approches. La première approche consiste à considérer le problème comme étant un problème d'optimisation globale, à variables discrètes. Un ensemble de scénario est étudié à priori. Pour simplifier et faciliter la recherche de séquences, on a modélisé le problème de transfert à poussée faible, en utilisant un principe d'inversion dynamique. Ce modèle utilise des arcs balistiques pour minimiser la consommation, et introduire des degrés de liberté supplémentaires pour satisfaire des contraintes terminales. On a mis au point un algorithme de complexité polynomiale pour résoudre le problème. Afin de réduire le coût calculatoire, nous avons mis en place des contraintes de " pruning " permettant de réduire l'espace de recherche. La deuxième approche consiste à formuler le problème comme un problème de commande optimale, où la dynamique inclut les principaux corps perturbateurs. Le scénario est alors déterminé à postériori. On résoud numériquement le problème au N corps. On montre que les méthodes indirectes (Pontryaguin) et directes (Collocation, Transcription) ne nous permettent pas de résoudre ce problème. On a donc mis au point un solveur de deuxième ordre respectant à la fois les conditions d'optimalité et de précision connues des méthodes indirectes, et des propriétés de robustesse généralement attribué aux méthodes directes.
|
985 |
Utilisation conjointe d'un modèle de génération-distribution et des comptages de circulation pour la reconstitution d'une matrice de trafic routier origine-destinationChen, Yu-Sen 07 September 1993 (has links) (PDF)
De l'analyse des méthodes existantes à la recherche d'une méthodologie, du raisonnement au développement, de la réalisation à l'application, nous pouvons conclure qu'une nouvelle méthode (REMODE) a été développée pour reconstituer une matrice origine-destination de trafic interurbain à partir des comptages. Cette méthode, inspirée de la programmation dynamique et des théories des graphes, modélise les comportements des voyageurs d'une part, et tire avantage du calcul mathématique d'autre part. Le but de la fonction objectif est de minimiser la différence entre le comptage et la valeur estimée sur les compteurs. A partir de cela, tous les processus, notamment ceux de génération, distribution et affectation, sont conçus d'une façon continue afin de garantir leur cohérence ainsi que le sens global de chaque élément concerné. Les principales nouveautés de cette méthode sont : (1) Le calibrage autonome du modèle est assuré par le programme lui-même. (2) La simulation de l'écoulement du trafic est fondée sur la désagrégation des voyageurs et l'offre du transport. (3) Les définitions des priorités au calcul ont été également entreprises dans le développement de la fonction objectif. Cette méthode a été calibrée et appliquée au réseau routier français et les données de comptages en 1990. Les principales matrices origine-destination reconstituées (matrices régionale, départementale et intermédiaire) sont interprétables du point de vue mathématique et socio-économique du transport.
|
986 |
Géométrie non-commutative, théorie de jauge et renormalisationDe Goursac, Axel 10 June 2009 (has links) (PDF)
De nos jours, la géométrie non-commutative est un domaine grandissant des mathématiques, qui peut apparaître comme un cadre prometteur pour la physique moderne. Les théories quantiques des champs sur des "espaces non-commutatifs" ont en effet été très étudiées, et sont sujettes à un nouveau type de divergence, le mélange ultraviolet-infrarouge. Cependant, une solution a récemment été apportée à ce problème par H. Grosse et R. Wulkenhaar en ajoutant à l'action d'un modèle scalaire sur l'espace non-commutatif de Moyal, un terme harmonique qui la rend renormalisable. Un des buts de cette thèse est l'extension de cette procédure aux théories de jauge sur l'espace de Moyal. En effet, nous avons introduit une nouvelle théorie de jauge non-commutative, fortement reliée au modèle de Grosse-Wulkenhaar, et candidate à la renormalisabilité. Nous avons ensuite étudié ses propriétés les plus importantes, notamment ses configurations du vide. Finalement, nous donnons une interprétation mathématique de cette nouvelle action en terme de calcul différentiel basé sur les dérivations, associé à une superalgèbre. Ce travail contient, outre les résultats mentionnés ci-dessus, une introduction à la géométrie non-commutative, une introduction aux algèbres epsilon-graduées, définies dans cette thèse, et une introduction à la renormalisation des théories quantiques de champs scalaires (point de vue wilsonien et BPHZ) et de jauge.
|
987 |
Procédures de base pour le calcul scientifique sur machines parallèles à mémoire distribuéeDesprez, Frédéric 06 January 1994 (has links) (PDF)
Le but de cette thèse est l'étude et l'implémentation de routines de base pour aider l'utilisateur de machines parallèles à mémoire distribuée à obtenir les meilleures performances avec un coût de développement moindre. Trois ensembles de routines sont étudiés. Le premier concerne des routines de communication sur réseau réconfigurable. La seconde bibliothèque fournit à l'utilisateur des routines portables de recouvrements calculs/communications transparents. Enfin, le dernier ensemble concerne des routines de calcul comme le produit de matrices, la factorisation LU et la transformée de Fourier bidimensionnelle. Une attention toute particulière est portée aux recouvrements calculs/communications. Enfin, une application des principes présentés tout au long de la thèse est donnée. Elle concerne la simulation d'un front de combustion
|
988 |
Développements théorique et numérique d'un modèle multiphasique pour le calcul des ouvrages renforcés par inclusionsThai Son, Quang 20 November 2009 (has links) (PDF)
La simulation numérique du comportement et l'analyse de stabilité des ouvrages de géotechnique renforcés par inclusions linéaires "rigides" ou "souples", c'est-à-dire capables ou non de reprendre des efforts de flexion et cisaillement, reste un problème difficile, en raison de la très forte hétérogénéité du sol renforcé combinée au grand nombre d'inclusions employées, ainsi qu'à leurs dimensions caractéristiques très petites vis à vis de celles de l'ouvrage dans son ensemble. Une approche alternative, fondée sur une modélisation dite "multiphasique", a été récemment développée, qui permet de s'affranchir des difficultés précédentes et d'aboutir ainsi à des méthodes de dimensionnement accessibles à l'ingénieur. On s'intéresse dans le cadre de ce travail aux développements théorique et numérique de cette approche en prenant en compte non seulement les effets de flexion et de cisaillement des inclusions, mais également les différents types d'interaction entre ces dernières et le sol environnant. La première partie du mémoire est consacrée à la construction des approches du calcul à la rupture et à la mise en œuvre numérique élasto-plastique du modèle multiphasique des ouvrages renforcés par inclusions "souples", qui est alors appliqué à l'analyse de la stabilité d'ouvrage en "terre armée". L'extension de l'approche du calcul à la rupture et du code éléments finis en élastoplasticité, développés dans la première partie, à la prise en compte des effets de flexion et de cisaillement fait l'objet de la seconde partie du mémoire. La version la plus complète du modèle multiphasique élaborée est appliquée à la simulation du comportement d'une fondation renforcée par inclusions "rigides", soumise à un séisme induisant un chargement latéral. Partant de l'idée d'optimiser le schéma de renforcement de l'ouvrage traité à la deuxième partie, en inclinant les inclusions, un modèle "triphasique" est formulé et développé. Ce modèle vise à décrire le comportement macroscopique d'un sol renforcé par deux familles d'inclusions ayant des orientations différentes.
|
989 |
Parallélisme et équilibrage de charges dans le traitement de la jointure sur des architectures distribuées.Al Hajj Hassan, Mohamad 16 December 2009 (has links) (PDF)
L'émergence des applications de bases de données dans les domaines tels que le data warehousing, le data mining et l'aide à la décision qui font généralement appel à de très grands volumes de données rend la parallélisation des algorithmes des jointures nécessaire pour avoir un temps de réponse acceptable. Une accélération linéaire est l'objectif principal des algorithmes parallèles, cependant dans les applications réelles, elle est difficilement atteignable : ceci est dû généralement d'une part aux coûts de communications inhérents aux systèmes multi-processeur et d'autre part au déséquilibre des charges des différents processeurs. En plus, dans un environnement hétérogène multi-utilisateur, la charge des différents processeurs peut varier de manière dynamique et imprévisible. Dans le cadre de cette thèse, nous nous intéressons au traitement de la jointure et de la multi-jointure sur les architectures distribuées hétérogènes, les grilles de calcul et les systèmes de fichiers distribués. Nous avons proposé une variété d'algorithmes, basés sur l'utilisation des histogrammes distribués, pour traiter de manière efficace le déséquilibre des données, tout en garantissant un équilibrage presque parfait de la charge des différents processeurs même dans un environnement hétérogène et multi-utilisateur. Ces algorithmes sont basés sur une approche dynamique de redistribution des données permettant de réduire les coûts de communication à un minimum tout en traitant de manière très efficace le problème de déséquilibre des valeurs de l'attribut de jointure. L'analyse de complexité de nos algorithmes et les résultats expérimentaux obtenus montrent que ces algorithmes possèdent une accélération presque linéaire.
|
990 |
The use of low energy photons in brachytherapy : dosimetric and microdosimetric studies around 103Pd and 125I seedsReniers, Brigitte 16 February 2005 (has links)
The general context of this work is the use of low energy photon sealed sources in brachytherapy. We have worked in particular on two isotopes: I-125 (mean energy of 27 keV) and Pd-103 (mean energy of 21 keV). The sealed sources are prepared as cylindrical seeds 4.5 mm in length and 0.8 mm in radius. Even if the external dimensions are standard, the internal design can be extremely different from one model to the other as the manufacturers try to improve the dosimetric characteristics of their sources. These isotopes are used mainly as permanent implants for prostate tumours but can also be used in the treatment of eye tumours. Compared to the higher energy photon sources, they offer the physical advantages of a safer manipulation from a radioprotection point of view and of the reduction of the dose to the surrounding healthy tissues.
When performing a clinical treatment, it is absolutely mandatory to be able to report very precisely various parameters that can have an impact on the patient treatment outcomes. These parameters are, for example, the prescribed dose, the doses at different organs, the degree of uniformity that has been achieved on the target or some dose-volume information. The brachytherapy treatment planning systems (TPS) also permit more and more to conform the treatment to the patient anatomy, like in external treatments. In the case of prostate tumours, it has been possible for a few years, using ultrasound imaging, to check the positioning of the seeds and to calculate the dose distribution in real time during the implantation procedure. It is clear that to achieve a good precision in the treatment itself, the sources dosimetric characteristics must be known with a maximum of precision. As at these low energies the dosimetric characteristics are very dependant on the internal design, this implies a thorough study of any new source design. This is the subject of the first part of this work with the determination of the dosimetric characteristics of two new models of seed produced by the IBt Company. That determination has been done using measurements with thermoluminescent detectors and Monte Carlo calculations with two codes: MCNP4C and EGSnrc. The comparison of these two codes with the measurements has brought into evidence the necessity to use up to date cross section libraries during the calculations and to take into account the presence of the detectors during the measurements.
However, the dosimetry is only one part of the problem when dealing with these low energy sources in radiotherapy. The irradiated materials are complex living tissues, composed of many substructures on which radiations have not always the same impact. It is now largely accepted that the most radiosensitive part of a living cell is the DNA. When photons interact with matter, they produce electrons that deposit their energy as ionisations and excitations of the atoms. These ionisations, if they occur with or close to the DNA molecule, are responsible for damaging it. That structure can support a certain amount of damage and stay functional thanks to repair mechanisms, but these mechanisms have limits in the way they can handle multiple breaks in the DNA strands. If these breaks are too close in space and time, repair is not possible and the cell dies. The density of ionisations increases when the energy of the incoming photon decreases so it is expected that low energy photons will have a higher efficiency at killing cells and so a higher Relative Biological Effect than high energy photons. To study that subject, one must reduce the volume of matter considered during energy deposition events to reach the sizes relevant for cells, micron or even nanometre volumes. That is why the part of radiation physics dealing with that problem is called microdosimetry. The second part of this work is dedicated to a theoretical microdosimetric study of these low energy photon sources using the microdosimetric functions for volumes of 1µm and a cluster analysis study for nanometric volumes. The two types of studies show that the photons of 20-30 keV are effectively more biologically efficient than high energy photons. The microdosimetric results give a ratio of the relative to Co-60 of 2.6 for Pd-103 and 2.2 for I-125, which is concordant with the experimental values published by Wuu et al. (1996). The cluster analysis also shows that the electrons generated by photons of 20-30 keV produce more high order clusters than electrons of 300 keV. The mean cluster order for clusters of 10 nm is 3.0 for Pd-103 and is 3.3 for I-125 compared to 2.1 for electrons of 300 keV. In this case, I-125 shows a higher mean cluster order, which is related to a potentially higher biological efficiency. This is explained by the fact that I-125 photons interact with a probability of 51% by Compton Effect, when that probability decreases to 27% for Pd-103. Compton interactions generate a high number of very low electrons that deposit their energy very locally with a very high density of ionisations. More radiobiological studies are needed to determine which volume site is more relevant and therefore which kind of study better reflects the reality. / Le cadre général de ce travail est l'utilisation de sources scellées de photons de basse énergie en curiethérapie. Nous avons travaillé en particulier avec deux isotopes : I-125 (énergie moyenne de 27 keV) et le Pd-103 (énergie moyenne de 21 keV). Les sources scellées se présentent sous la forme de grains cylindriques de 4.5 mm de long et 0.8 mm de rayon. Bien que les dimensions externes soient standards, la configuration interne peut être extrêmement différente d'un modèle à l'autre vu que les fabricants essaient d'améliorer les caractéristiques dosimétriques de leurs sources. Ces isotopes sont utilisés comme implants permanents pour les tumeurs de la prostate mais peuvent aussi être utilisés dans le traitement des tumeurs ophtalmiques. Comparés aux sources de plus haute énergie, ils offrent l'avantage physique d'une manipulation plus facile du point de vue de la radioprotection et d'une réduction de la dose aux tissus sains avoisinants.
Lors d'un traitement clinique, il est important de pouvoir rapporter précisément certains paramètres qui peuvent avoir un impact sur les résultats du traitement pour le patient. Ces paramètres sont par exemple la dose prescrite, les doses à différents organes, le degré d'uniformité atteint sur le volume cible ou certaines information dose-volume. Les systèmes de calcul de dose pour la curiethérapie permettent également de mieux en mieux de conformer le traitement à l'anatomie du patient, comme en radiothérapie externe. Dans le cas des tumeurs de la prostate, il est possible depuis quelques années de vérifier la position des sources et de calculer les distributions de dose en temps réel lors de l'implantation grâce à l'utilisation d'une sonde ultrason. Il est clair que pour arriver à une bonne précision lors du traitement lui-même, il est indispensable de connaître les caractéristiques dosimétriques des sources avec un maximum de précision. Vu que, à ces basses énergies, les caractéristiques dosimétriques sont très dépendantes de la structure interne de sources, cela implique une étude minutieuse et complète de chaque nouveau modèle de grain mis sur le marché. Ceci forme le cadre de la première partie de ce travail qui est la détermination des caractéristiques dosimétriques de deux nouveaux modèles de grains produits par la compagnie IBt. Cette détermination a été réalisée grâce à l'utilisation de détecteurs thermoluminescents et de calculs de Monte Carlo avec deux codes : MCNP4C et EGSnrc. La comparaison de ces deux codes avec les mesures a permit de mettre en évidence la nécessité d'utiliser des bibliothèques de sections efficaces récentes lors des calculs et de prendre en compte la présence des détecteurs lors des mesures.
Cependant, la dosimétrie est seulement une partie du problème de l'étude des sources de basse énergie utilisée en radiothérapie. Les milieux irradiés sont des tissus vivants complexes, composés de plusieurs sous-structures sur lesquelles les radiations n'ont pas toujours le même effet. Il est maintenant largement accepté que la partie la plus radiosensible d'une cellule vivante est la molécule d'ADN. Lorsque des photons interagissent avec la matière, ils produisent des électrons qui eux-mêmes déposent leur énergie sous forme d'ionisation et d'excitations des atomes. Ces ionisations, si elles se passent à proximité ou dans la molécule d'ADN, peuvent endommager celle-ci. Cette structure peut supporter une certaine quantité de dommages tout en restant fonctionnelle grâce à des mécanismes de réparation, mais ces mécanismes connaissent des limitations dans la manière dont ils peuvent gérer les cassures multiples des brins d'ADN. Si ces cassures sont trop proches dans le temps et l'espace, la réparation n'est plus possible et la cellule meurt. La densité d'ionisation augmente lorsque l'énergie du photon décroît. Il est donc attendu que les photons de basse énergie auront un efficacité accrue pour tuer les cellules et donc une plus haute Efficacité Biologique Relative que les photons de haute énergie. Pour étudier cet effet, il faut réduire le volume de matière considéré lors des évènements responsables du dépôt d'énergie afin d'atteindre des dimensions d'un ordre représentatif pour les cellules, microns ou même nanomètres. C'est pourquoi la partie de la physique des radiations dédiée à ce problème est appelée microdosimétrie. La seconde partie de ce travail est dédiée à une étude microdosimétrique théorique des ces sources de photons de basse énergie utilisant le concept de fonctions microdosimétriques pour des volumes de 1 µm et une analyse de cluster pour des volumes de l'ordre du nanomètre. Les deux types d'étude montrent que les photons de 20-30 keV sont effectivement plus efficaces radiobiologiquement que les photons de hautes énergie. Les résultats microdosimétriques donnent un rapport de yD relatif au Co-60 de 2.6 pour le Pd-103 et de 2.2 pour l'I-125, ce qui est concordant avec les valeurs expérimentales publiées par Wuu et al. (1996). L'analyse de cluster montre aussi que les électrons générés par les photons de 20-30 keV produisent plus de clusters d'ordre élevé que les électrons de 300 keV. L'ordre de cluster moyen pour des clusters de 10 nm est de 3.0 pour le 103Pd et de 3.3 pour l'I-125 comparé à 2.1 pour des électrons de 300keV. Dans ce cas, l'I-125 montre un ordre de cluster moyen plus élevé, ce qui est lié à une efficacité biologique potentiellement plus élevée. Ceci est expliqué par le fait que les photons de l'I-125 interagissent par effet Compton avec une probabilité de 51 %, cette probabilité tombe à 27 % dans le cas du Pd-103. Les interactions Compton génèrent un grand nombre d'électrons de très basse énergie qui déposent leur énergie très localement avec une très haute densité d'ionisations. D'autres études biologiques sont nécessaires pour déterminer quel volume est plus adapté et donc quel type d'étude reflète le mieux la réalité.
|
Page generated in 0.056 seconds