Spelling suggestions: "subject:"bernoulli"" "subject:"bernoulli's""
1 |
Modélisation des structures multicouches en analyse limite. Application au renforcement de matériauDallot, Julien 19 December 2007 (has links) (PDF)
Dans le domaine du génie civil et de la construction, ainsi que de l'industrie, les structures hétérogènes multicouches sont très utilisées. L'une des demandes formulées par les ingénieurs pour concevoir de telles structures est aussi la connaissance des charges limites qu'elles peuvent supporter. Des méthodes d'homogénéisation des plaques et poutres multicouches en analyse limite ont ainsi été développées. Elles conduisent respectivement à des cinématiques de Love-Kirchhoff ou d'Euler-Bernoulli pour la structure homogène équivalente. Afin de prendre en compte les effets de cisaillement, de nouveaux modèles de plaques et de poutres multiparticulaires ont été proposés et justifiés. Après une validation par éléments finis de ces modèles, on les applique au cas des poutres en béton armé renforcées. Ils permettent d'avoir une estimation rapide des chargements maximaux supportables et de construire ainsi un outil de dimensionnement à l'Etat Limite Ultime pour de telles structures.
|
2 |
The Stickelberger ideal in the spirit of Kummer with application to the first case of Fermat's last theorem /Jha, Vijay. January 1993 (has links)
Thesis (Ph. D.)--Punjab University, 1992. / Includes bibliographical references (p. 174-181).
|
3 |
Learning discrete word embeddings to achieve better interpretability and processing efficiencyBeland-Leblanc, Samuel 12 1900 (has links)
L’omniprésente utilisation des plongements de mot dans le traitement des langues naturellesest la preuve de leur utilité et de leur capacité d’adaptation a une multitude de tâches. Ce-pendant, leur nature continue est une importante limite en terme de calculs, de stockage enmémoire et d’interprétation. Dans ce travail de recherche, nous proposons une méthode pourapprendre directement des plongements de mot discrets. Notre modèle est une adaptationd’une nouvelle méthode de recherche pour base de données avec des techniques dernier crien traitement des langues naturelles comme les Transformers et les LSTM. En plus d’obtenirdes plongements nécessitant une fraction des ressources informatiques nécéssaire à leur sto-ckage et leur traitement, nos expérimentations suggèrent fortement que nos représentationsapprennent des unités de bases pour le sens dans l’espace latent qui sont analogues à desmorphèmes. Nous appelons ces unités dessememes, qui, de l’anglaissemantic morphemes,veut dire morphèmes sémantiques. Nous montrons que notre modèle a un grand potentielde généralisation et qu’il produit des représentations latentes montrant de fortes relationssémantiques et conceptuelles entre les mots apparentés. / The ubiquitous use of word embeddings in Natural Language Processing is proof of theirusefulness and adaptivity to a multitude of tasks. However, their continuous nature is pro-hibitive in terms of computation, storage and interpretation. In this work, we propose amethod of learning discrete word embeddings directly. The model is an adaptation of anovel database searching method using state of the art natural language processing tech-niques like Transformers and LSTM. On top of obtaining embeddings requiring a fractionof the resources to store and process, our experiments strongly suggest that our representa-tions learn basic units of meaning in latent space akin to lexical morphemes. We call theseunitssememes, i.e., semantic morphemes. We demonstrate that our model has a greatgeneralization potential and outputs representation showing strong semantic and conceptualrelations between related words.
|
Page generated in 0.0332 seconds