Spelling suggestions: "subject:"3analyse numérique"" "subject:"analanalyse numérique""
21 |
Comportement sismique des murs de remplissage en maçonnerie de tuiles structurales d'argileTherrien-Truchon, Julie January 2012 (has links)
The province of Quebec, in Canada, is located in a stable region of the North American tectonic plate. But some zones are seismically active. Moreover, Montreal City has the second highest urban seismic risk in Canada. Although it is now recognized that unreinforced masonry (URM) is vulnerable to earthquakes, many URM buildings are critical infrastructures built before provisions were made for seismic loading. A research project has been undertaken to improve understanding of unreinforced masonry seismic behaviour. It is part of the Canadian Seismic Research Network (CSRN) for the seismic evaluation and rehabilitation of critical infrastructures. This research project, consisting of three main parts, is a reference document to be used in future research work. The first part consists of a review of literature on the seismic behavior of unreinforced masonry, specifically on masonry, the effects of time, and various types of masonry works. Next, special attention is devoted to the description of failure modes. Finally, a review of factors influencing the seismic performance of masonry walls is carried out by using the following four specific properties: stiffness, strength, deformation capacity and energy dissipation capacity.The in-plane and out-of-plane loadings of masonry walls with and without frames are discussed separately. There are some behaviour similarities between a wall without a frame and an infill wall. The second part consists of the experimental evaluation of the in-plane cyclic behavior of a steel frame infilled with structural clay tile masonry wall that is representative of a first floor external back wall of a typical school built in Quebec in the 1950's. Its development is based on structural inventories for vulnerability assessment. Results are analyzed according to stiffness, strength, deformation capacity and energy dissipation capacity of the experimental specimen. Some characterization testing has been done to determine properties of masonry such as compressive strength, modulus of elasticity and Poisson's ratio. Unlike the characterization results, the experimental wall has shown a reserve capacity after masonry cracking. The third part aims to validate the capacity of the SeismoStruct's masonry model to predict the experimental response of infill walls specimens. This model, developed by Crisafulli, is based on the equivalent strut concept often used for infill wall modelisation. Experimental data obtained in this project and a similar project are used to verify whether this model could be used in practice with rational settings for the seismic evaluation of a building.The methodology used did not yield satisfactory predictions.
|
22 |
Étude expérimentale et numérique de la fissuration intralaminaire et de l'initiation du délaminage de bord libre dans les structures stratifiées pseudo-tisséesDuplessis Kergomard, Yann 20 June 2007 (has links) (PDF)
Nous avons travaillé au cours de cette étude sur des plaques stratifiées en verre/époxy fabriquées à partir de préimprégnés pseudo-tissés. Ces composites sont sujets au délaminage et à la fissuration intralaminaire. L'étude se décompose en quatre grandes étapes. Tout d'abord, une campagne d'essais a été menée, au cours de laquelle les caractéristiques des endommagements intralaminaires transverses et leur cinétique d'évolution ont été déterminées. Cet endommagement présente beaucoup de points communs avec celui observé dans les matériaux non tissés. Toutefois, la structure tissée du matériau a des conséquences sur certaines de ces caractéristiques, en particulier sur sa cinétique d'évolution. Une deuxième campagne d'essais a été réalisée afin d'étudier le phénomène d'initiation du délaminage aux voisinages des bords. Dans ce but, une méthode d'observation optique innovante a été établie afin de pouvoir visualiser durant les essais les différents mécanismes de dégradation présents. Nous avons ainsi étudié l'influence de la fissuration intralaminaire et de la structure tissée sur le début du délaminage. En parallèle, ces endommagements ont été modélisés. Ainsi, un modèle de comportement à l'échelle mésoscopique, prenant en compte les dégradations intralaminaires, a été mis en place. Les effets dus à la refermeture incomplète des fissures a également été prise en compte dans le modèle. De plus, un critère d'initiation du délaminage a été établi. Le critère est construit à partir des composantes du vecteur contrainte de l'interface, moyennés sur une distance caractéristique. Enfin, une dernière phase a permis de valider le modèle et le critère sur des structures non trouées et trouées.
|
23 |
Détection de textes enfouis dans des bases d'images généralistes : un descripteur sémantique pour l'indexationRetornaz, Thomas 23 October 2007 (has links) (PDF)
Les bases de données multimédia, aussi bien personnelles que professionnelles, se développent considérablement et les outils automatiques pour leur gestion efficace deviennent indispensables. L'effort des chercheurs pour développer des outils d'indexation basés sur le contenu sont très importants, mais le fossé sémantique est difficile à franchir : les descripteurs de bas niveau généralement utilisés montrent leurs limites dans des cadres applicatifs de plus en plus ouverts. Le texte présent dans les images est souvent relié au contexte sémantique et constitue un descripteur pertinent. Dans cette thèse nous proposons un système de localisation de texte dans des bases d'images génériques, qui tend à être robuste au changement d'échelle et aux déformations usuelles du texte enfoui. Notre système est basé sur un opérateur résiduel numérique, l'ouvert ultime. Dans une première partie nous étudions le comportement de cet opérateur sur des images réelles, et proposons des solutions pour pallier certaines limitations. Dans une seconde partie l'opérateur est inclus dans une chaîne de traitement et complété par différents outils de caractérisation du texte. Les performances de notre approche sont évaluées sur deux bases d'images. Premièrement, nous avons pris part à la campagne d'évaluation ImagEval, remportant la première place dans la catégorie "localisation de texte". Deuxièmement pour situer notre approche par rapport à l'état de l'art, nous avons effectué des tests avec la base d'évaluation I.C.D.A.R. Enfin, un démonstrateur a été réalisé pour EADS. Pour des raisons de confidentialité, ces travaux n'ont pas pu être intégrés à ce manuscrit.
|
24 |
Méthodes de contrôle de la qualité de solutions éléments finis (application à l'acoustique)Bouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies.
As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e., highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’.
The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples : the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles.
As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.
|
25 |
Identification de l'état d'un milieu et représentation de sa variabilité par une approche stochastiqueRecek, Sébastien 03 September 2008 (has links) (PDF)
Après avoir examiné les méthodes de résolution de problèmes inverses déterministes et de problèmes direct stochastiques, cette thèse propose une méthode d'identification de paramètres de champ stochastiques basée sur les méthodes stochastiques dites "non intrusives". La méthode retenue est basée sur un plan d'expériences, un code de calcul déterministe et consiste à faire coïncider (via une minimisation), pour un certain nombre de points, une sortie simulée à partir d'une entrée paramétrisée et la sortie mesurée projetée sur le chaos polynomial. La méthode retenue est mise en oeuvre de la méthode sur un exemple complet qui montre qu'elle requiert trop d'approximations pour être immédiatement utilisable. Une autre voie de résolution (en découplant deux minimisations imbriquées) est cependant évoquée, qui pourrait donner de meilleurs résultats.
|
26 |
Homogénéisation et analyse numérique d'équations elliptiques et paraboliques dégénérées.Thouroude, Gilles 18 June 2012 (has links) (PDF)
Cette thèse comporte deux parties. Dans un premier temps, nous allons faire un lien entre des solutions stationnaires de problèmes d'évolutions de frontières par courbure moyenne avec des champs extérieurs et l'existence de minimiseur globaux d'un problème de minimisation de périmètre avec une énergie. Ces solutions stationnaires permettent en outre de fournir des bornes pour les solutions non stationnaires du problème. De plus, en modifiant l'énergie, on montre que les résolutions successives des problème de périmètre permettent de calculer l'évolution d'un ensemble par courbure moyenne. Enfin, on présentera un algorithme permettant de calculer les solutions de viscosité d'un problème de Dirichlet portant sur le Laplacien Infini grâce aux équations d'Aronsson.
|
27 |
Une mise en œuvre frontale des méthodes d'éléments finisAussems, André 14 December 1972 (has links) (PDF)
.
|
28 |
1ère thèse: Matrices du second degré et normes générales en analyse numérique linéaire<br />-<br />2ème thèse: Le théorème de Stone - WeirstrassGastinel, Noël 12 December 1960 (has links) (PDF)
Le Calcul numérique présente deux aspects apparemment distincts :<br /><br /><br />- La partie consacrée à la recherche de méthodes ou de procédés alorithmiques, partie algébrique. <br /><br /><br />- La partie consacrée au contrôle des calculs et des approximations, partie topologque. <br /><br /><br />Sur le plan théorique, l'Analyse Numérique présuppose donc l'algèbre et la topologie. La raison profonde en est<br />la définition même des nombres réels en laquelle ce double point de vue se fait déjà sentir.<br />Ce travail se propose d'utiliser deux idées dirigées dans les deux voies dont nous venons de parler. La première est<br />de montrer le rôle important joué dans la plupart des processus de calcul linéaire par des matrices de polynomes minimaux du<br />second degré, dont l'inverse est, par ce fait, immédiatement calculable. La seconde est de montrer comment la considération<br />de normes générales peut permettre de définir des notions importantes comme les conditionnements numériques et d'obtenir un<br />contrôle plus fin des erreurs de calcul.
|
29 |
Algorithmes efficaces pour la simulation de gouttes entraînéesLeclaire, Sébastien January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
30 |
L'ensemble des EDO d'ordres 2 et 3 invariantes sous SL(2,R) et leur discrétisation préservant les symétriesVerge-Rebêlo, Raphaël January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
Page generated in 0.0568 seconds