• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 15
  • 5
  • Tagged with
  • 76
  • 31
  • 28
  • 17
  • 17
  • 14
  • 13
  • 11
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation multi-échelle des matériaux viscoélastiques hétérogènes : application à l'identification et à l'estimation du fluage propre de bétons d'enceintes de centrales nucléaires

Le, Quoc Viet 15 January 2008 (has links) (PDF)
Le béton se présente comme un matériau constitué de granulats, jouant le rôle d'inclusions, enchâssés dans une matrice correspondant à la pâte de ciment hydraté. A l'échelle de la pâte, l'hydratation du ciment génère un milieu multiphasique, constitué d'un squelette solide et de pores remplis ou partiellement remplis d'eau selon leur taille. Le composant principal du squelette solide est le gel de C-S-H, les autres composants étant de nature cristalline. La qualification de gel du composant C-S-H est liée à sa nanostructure dont la schématisation la plus admise consiste en une phase aqueuse adsorbée, en sandwich avec des feuillets solides de nature cristalline. Il est bien admis que la structure du C-S-H est à l'origine de son comportement viscoélastique et donc de celui du béton. Ce comportement viscoélastique peut s'expliquer par un réarrangement de sa nanostructure sous l'effet des contraintes mécaniques appliquées à l'échelle macroscopique. La modélisation macroscopique du fluage du béton ne permet pas d'expliquer la variabilité du fluage d'une formulation de béton à une autre. En effet, les paramètres des modèles macroscopiques ne peuvent être identifiés que par l'analyse de résultats expérimentaux obtenus par des essais réalisés sur des éprouvettes de béton. Ces paramètres ne sont valables que pour une formulation donnée. L'identification de ces paramètres conduit donc à des programmes expérimentaux très coûteux et ne fournit pas suffisamment d'informations sur la sensibilité des paramètres macroscopiques à la variabilité des caractéristiques mécaniques et morphologies des constituants. Dans ce travail, on suppose qu'il existe une échelle microscopique à laquelle les mécanismes moteurs du fluage ne sont pas impactés par la formulation du béton. A cette échelle, celle du C-S-H, les propriétés viscoélastiques peuvent être considérées avoir un caractère intrinsèque. L'influence de la formulation ne concerne alors que les concentrations des différents hydrates. Trois approches, analytiques, semi-analytiques et numériques sont alors proposées pour estimer, par une homogénéisation multi-échelle, les propriétés viscoélastiques macroscopiques du béton à partir des propriétés de ses constituants ainsi qu'à partir de sa microstructure. Ces approches sont basées sur l'extension des schémas d'homogénéisation élastique au cas viscoélastique au moyen du principe de correspondance qui utilise la transformée de Laplace-Carson. Les propriétés effectives sont alors déterminées directement dans l'espace de Carson. Par la suite, celles dans l'espace temporel sont obtenues par la transformée inverse. Les approches proposées apportent des solutions aussi bien dans un cadre général que sous certaines hypothèses restrictives : coefficient de Poisson viscoélastique microscopique ou macroscopique constant, module de compressibilité constant. Sur le plan théorique, deux schémas d'homogénéisation ont été étudiés : le schéma de Mori-Tanaka, basé sur le problème de l'inclusion d'Eshelby, et le schéma auto-cohérente généralisé basé sur la neutralité énergique de l'inclusion. Les résultats obtenus montrent que sous ces hypothèses restrictives, le spectre macroscopique se présente comme une famille de sous ensembles de temps caractéristiques bornés par les temps caractéristiques microscopiques. Par ailleurs, les propriétés thermodynamiques, de croissance monotone et de concavité, des fonctions de retard macroscopiques ne sont préservées par l'homogénéisation que sous certaines conditions de compatibilité des spectres microscopiques. Sur le plan pratique, les méthodes développées ont été appliquées pour construire la complaisance de fluage propre macroscopique du béton en connaissant les données communes de toutes sortes de bétons et celles correspondant à une formulation donnée. Les résultats expérimentaux disponibles sont alors exploités pour analyser le caractère intrinsèque des propriétés viscoélastiques à l'origine du fluage du béton
32

Reconstruction tridimensionnelle d'objets complexes a l'aide de diagrammes de Voronoi simplifiés : application a l'interpolation 3D de sections géologiques

Oliva, Jean-Michel 09 October 1995 (has links) (PDF)
Nous nous intéressons au problème de la reconstruction tridimensionnelle d'objets complexes à partir de coupes sériées. Le premier chapitre du mémoire s'attache à montrer l'intérêt de mettre à la disposition de la modélisation géologique 3D un ensemble d'outils variés et notamment des méthodes d'interpolation et de reconstruction adaptées. Le second chapitre pose la problématique générale de la reconstruction 3D et propose un état de l'art sur les méthodes existantes. Ces deux chapitres composent la première partie du manuscrit. Dans la deuxième partie du mémoire nous proposons une nouvelle méthode de reconstruction 3D qui permet de traiter de manière simple et automatique l'ensemble des problèmes de topologie (trous, branchements multiples, contours isolés). Elle s'appuie sur la construction adaptative de coupes intermédiaires par interpolation entre les sections initiales (chapitre 3). Ce processus utilise un diagramme de Voronoï généralisé simplifié, le réseau bissecteur, comme outil d'interpolation 2D. Nous fournissons une description géométrique complète du réseau bissecteur 2D et nous montrons que sa complexité algébrique est la même que celle des éléments qui permettent de le calculer (segments en 2D, portions de plans en 3D). Nous proposons ensuite deux algorithmes de construction des réseaux bissecteurs interne et externe de formes polygonales éventuellement trouées, dont la complexité en temps est respectivement en O(n2 log n) et O(n2), et la mémoire en O(n2) et O(n) respectivement (chapitre 4). La mise en correspondance des contours est abordée dans le chapitre 5 et nous suggérons quelques solutions pour traiter certains problèmes délicats. La construction du réseau bissecteur permet ensuite d'obte~ir une surface valide de l'objet en guidant de manière directe la triangulation entre les points des différentes sections. Il n'y a donc pas besoin de post-traitements. De plus, l'ajout automatique de portions de coupes intermédiaires dans les zones de changements de topologie ou de variations de morphologie permet une meilleure définition des surfaces générées (chapitre 6). Dans la dernière partie du mémoire nous discutons les résultats obtenus et nous les comparons avec ceux de deux méthodes existantes (chapitre 7).
33

Combinaisons markoviennes et semi-markoviennes de modèles de régression. Application à la croissance d'arbres forestiers.

Chaubert-Pereira, Florence 05 November 2008 (has links) (PDF)
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i.e. des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives synchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles.
34

Résolution de problèmes multicritères (durée/sécurité) pour la conception de plans d'évacuation de personnes / Solving multicriteria problems (duration/safety) in order to design large scale evacuation evacuation planning

Ndiaye, Ismaïla Abderhamane 03 March 2016 (has links)
Les travaux présentés dans cette thèse visent à proposer des méthodes de routage d’une population de masse à travers un réseau perturbé dont les données varient dans le temps pour l’aide à la conception de plan d’évacuation. Ce problème s’illustre parfaitement en cas de catastrophe d’origine humaine ou naturelle où les populations (potentiellement) impactées par ces sinistres doivent quitter leur lieux de vie pour une période pouvant aller d’un à plusieurs jours. Dans la littérature, ces routages de masse sont souvent modélisés comme des problèmes de flots dynamiques dont l’objectif est de minimiser la durée globale du transfert des individus depuis un certain nombre de points de départs dangereux vers des points d’arrivé sûrs. Toutefois, peu de travaux prennent en compte la notion de sécurité durant ce routage et encore moins le déploiement d’agents (policiers, sapeur-pompiers, ambulanciers,...) pouvant sécuriser et/ou faciliter le déplacement des personnes. / The work presented in this thesis aims to propose methods for routing a mass population through a disturbed network whose data vary over time. This problem can be illustrated by disasters due to humans or natural events where people (potentially) affected have to leave their living places for a period of one to several days. In the literature, mass routing are often modeled as dynamic flow problems whose objective is to minimize the overall duration of the evacuation process from a set of gathering points towards another set of shelter locations. However few papers take into account the concept of safety during this routing nor deploying task forces that can secure or facilitate this process. In this context, the safety security can be seen as a danger affecting the quality of life of people we organize the trip. In this context, the safety can be seen as a danger that influence the health of the people we are trying to evacuate. Indeed, this hazardous event can be related to a radioactive cloud, a fire, a tsunami, an earthquake or a flooding which make some of paths becoming dangerous or less usable by evacuees.
35

Qualité de vie et coûts des troubles anxieux : évaluation de la qualité de vie et des coûts des troubles anxieux spécifiques : trouble anxieux généralisé et phobie sociale / The cost and quality of life impact in patients with anxiety disorders

François, Clément 15 December 2010 (has links)
Parmi tous les problèmes de santé chronique, les troubles anxieux combinent une prévalenceélevée, une apparition précoce, une chronicité élevée et des conséquences sur lefonctionnement majeur. Or l’anxiété comme pathologie a été plutôt évaluée d’un point de vueclinique ; l’impact des sous types sur la qualité de vie et les coûts a été de façon généralemoins étudié, surtout sur l’impact à long terme, et les études présentent des variationsimportantes d’estimation des coûts.Il est intéressant d’évaluer ces sous types de trouble anxieux du point de vu de la qualité devie liée a la santé ainsi que les paramètres objectifs des consommations de soins et coûts ;l’étude des conséquences de la rechute est particulièrement importante. Nous avons mesuréles coûts associés à l’ensemble des sous types des troubles anxieux, en utilisant une extractiond’une base de données administrative américaine sur plusieurs centaines de milliers depatients, et ainsi permis d’avoir un estimé précis des coûts médicaux, de comparer les coûtsassociés aux différents diagnostics d’anxiété, de les comparer à ceux de l’épisode dépressif, etde l’influence de la relation dynamique entre les troubles anxieux et la dépression. Nousavons ensuite étudié l’évolution de l’impact sur la qualité de vie et le fonctionnement duTrouble Anxieux Généralisé et de la Phobie Sociale à travers deux essais cliniques et estimédans ces essais les utilités associées à des états de santé. Des efforts de recherche accrus sontnécessaires pour fournir des données prospectives sur l’aspect dynamique des TroublesAnxieux et de la dépression, et évaluer les coûts indirects également en pratique cliniquecourante. / Anxiety disorders are unique among all chronic conditions, both physical and mental, inhaving a combination of very high prevalence, early age at onset, high chronicity, andsubstantial role impairment. Anxiety disorder was mostly evaluated of a clinical standpoint;the impact of subtypes on the quality of life and costs were generally less studied, especiallyon long-term impact, and studies show large variations of cost estimates. It is interesting toevaluate these subtypes of anxiety disorder from the point of view of health related quality oflife and the objective parameters of health care consumption and costs. The consequences ofrelapse are of particular importance due to the chronicity of these disorders. We measured thecosts associated with all subtypes of anxiety disorders, using an extraction of a U.S.administrative database on hundreds of thousands of patients, and thus allowed to have anaccurate estimate of medical costs, compared the costs associated with different diagnoses ofanxiety, compared with those of the depressive episode, and studied the dynamic relationshipbetween anxiety disorders and depression. We then studied the evolution of the impact onquality of life and functioning of the Generalised Anxiety Disorder and Social Phobia throughtwo randomised clinical trials and found in these tests associated utilities to health states.Increased research efforts are needed to provide prospective data on the dynamic aspect ofAnxiety Disorders and Depression, and to also measure the indirect costs in clinical practice.
36

Electromagnetic modeling and characterization of anisotropic ferrite materials for microwave Isolators/Circulators / Modélisation et Caractérisation de matériaux ferrites anisotropes pour les dispositifs micro-ondes isolateurs/circulateurs

V K Thalakkatukalathil, Vinod 15 December 2017 (has links)
Les circulateurs et les isolateurs à ferrite sont couramment utilisés dans l’électronique hyperfréquence en raison de leur forte résistivité électrique et de leur aimantation spontanée élevée. La conception et l’optimisation des dispositifs micro-ondes à ferrites nécessitent d’une part la connaissance de leurs propriétés dynamiques, permittivité complexe et tenseur de perméabilité, et d’autre part le contrôle de la propagation de l’onde électromagnétique (EM) qui conditionne leurs performances. Les logiciels commerciaux de simulation utilisent différents modèles théoriques pour décrire le tenseur de perméabilité en fonction de l’état d’aimantation. Cependant la plupart de ces simulateurs EM restent limités à des états particuliers d’aimantation en raison des hypothèses simplificatrices des modèles de perméabilité utilisés. Dans ce travail de thèse, nous présentons un outil prédictif pour l’étude des propriétés EM des ferrites quel que soit leur état d’aimantation et qui tient compte de l’inhomogénéité des champs internes de polarisation. Cette modélisation combine des techniques expérimentales de détermination des paramètres physiques des ferrites et un modèle théorique qui utilise ces paramètres pour décrire le comportement dynamique des ferrites quel que soit l’état d’aimantation. Dans la première partie de la thèse nous présentons une méthode large bande en ligne coaxiale pour la mesure du coefficient d’amortissement. Les paramètres S théoriques sont calculés à partir d’une analyse EM (problème direct) de la cellule de mesure. Pour le problème inverse, une optimisation numérique a été développée pour calculer le coefficient d’amortissement (α) par comparaison des paramètres S calculés avec ceux mesurés. Dans la seconde partie de la thèse, nous présentons un outil théorique de modélisation EM qui combine une analyse magnétostatique, un modèle du tenseur de perméabilité généralisé (GPT) et le simulateur Ansys HFSSTM. La majorité des paramètres d’entrée comme l’aimantation à saturation ou le champ d’anisotropie peuvent être mesurés à l’aide de techniques standards de caractérisation statique. Seul le paramètre dynamique, le coefficient d’amortissement, est déterminé à l’aide de la technique en ligne coaxiale proposée dans la première partie de la thèse. L’outil théorique développé est ensuite validé par la modélisation et la réalisation d’un circulateur micro-ruban à jonction Y. Grâce à la prise en compte de l’inhomogénéité des champs internes de polarisation, l’outil théorique proposé permet de mieux prédire le comportement dynamique des dispositifs à ferrites et cela pour tout état d’aimantation. / Ferrites are widely used in microwave electronics, particularly for circulators and insulators, because of their high electrical resistivity and high spontaneous magnetization. Design and optimization of microwave devices using ferrites requires realistic knowledge of its dynamic response, namely complex permittivity and permeability tensor and, on the other hand, control of wave propagation that condition their performance. Commercial simulation software use different theoretical models to describe the permeability tensor according to the state of magnetization. However, most of the electromagnetic (EM) simulators remain limited to certain states of magnetization, due to the simplified assumptions on which their permeability models are based upon.In this thesis work, we presented a predictive electromagnetic tool to study the EM properties of ferrites, whatever their magnetization state is, and takes into account the inhomogeneity of the internal polarization fields. This theoretical modeling approach combines experimental techniques to find the physical parameters of the ferrites, and a theoretical model which will use these parameters to describe the dynamic behavior of ferrites at any magnetization state.In the first part of the thesis, we presented a broadband coaxial line method for damping factor measurement. Theoretical S parameters are calculated using the EM analysis (direct problem) of the measurement cell. In the inverse problem, a numerical optimization procedure is developed to compute the damping factor (α) by matching theoretical S parameters with measured S parameters.During the second part of the thesis, we developed a theoretical EM modeling tool which combines a magneto-static solver, generalized permeability tensor model and commercial simulation software Ansys HFSSTM. Most of the input parameters like saturation magnetization, anisotropy field, etc. can be measured using standard characterization methods, except the damping factor used to represent the dynamic losses. Static input parameters of this theoretical tool are determined using standard material characterization methods.Dynamic input parameter, damping factor is calculated using the coaxial line technique proposed in the first part of this thesis. Theoretical EM tool is validated by modeling, and realizing a microstrip Y-junction circulator. By taking into account the inhomogeneity of the internal polarizing fields, proposed theoretical tool can predict the dynamic behavior of ferrite devices more accurately, at all magnetization states.
37

Mechatronic design under uncertainties / Conception mécatronique en présence des incertitudes

Zhang, Kai 22 October 2013 (has links)
Les structures flexibles sont de plus en plus utilisées dans des domaines variés comme l'aérospatiale, l'automobile, etc. Les avantages du contrôle actif des vibrations sont son faible amortissement et sa sensibilité aux vibrations. Dans la réalité, en plus des exigences de réduction effective des vibrations, il faut également prendre en compte la quantité d'énergie nécessaire pour le contrôle, les entrées du contrôle pour éviter la saturation de commande, ainsi que la réduction des effets des bruits de mesure. D'autre part, comme les structures flexibles ont une infinité de modes de résonance et que seuls les premiers modes peuvent être utilisés dans la modélisation du système et dans la conception de contrôleur, les dynamiques négligées en hautes fréquences peuvent induire une instabilité dite "spill over". De plus, les incertitudes sur les paramètres modaux peuvent dégrader les performances de contrôle et même déstabiliser le système en boucle fermée. Dans ce contexte, on propose dans cette thèse une méthodologie quantitative de contrôle actif et robuste des vibrations des structures flexibles. Des stratégies de contrôle de la phase et du gain sont d'abord proposées pour assurer des spécifications dépendant de la fréquence sur la phase et le gain du contrôleur. Ces spécifications peuvent être réalisées par la conception du contrôleur par la méthode Hoo . Le contrôle H00 basé sur ces stratégies permet d'obtenir un compromis entre l'ensemble des objectifs de contrôle et d'offrir un contrôleur robuste qualitatif. En particulier, nous avons utilisé le contrôle LPV Hoo pour réduire l'énergie nécessaire au contrôle du système LPV. Le cadre généralisé du chaos polynomial (gPC) avec analyse par éléments finis, qui permet l'étude des effets des incertitudes de propriétés structurelles sur les fréquences naturelles et qui permet d'obtenir leurs informations probabilistes, est employé pour la quantification des incertitudes. Ensuite, en présence des incertitudes paramétriques et dynamiques, nous avons utilisé l'analyse 11/v et l'algorithme aléatoire en utilisant la méthode de Monte-Carlo pour assurer en même temps la stabilité en boucle fermée et les propriétés de robustesse de la performance à la fois dans le sens déterministe et le sens .probabiliste. La méthodologie de contrôle robuste quantitatif proposée est donc développée en employant des techniques diverses du contrôle automatique et du génie mécanique, et ainsi permet de réduire l'écart entre eux pour le contrôle robuste de la vibration pour des structures flexibles. Son efficacité est vérifiée par des simulations numériques et la validation expérimentale sur des poutres équipées de piézoélectriques non-colocalisés, LTI et LPV. / Flexible structures are increasingly used in various applications such as aerospace, automotive and so on. Since they are lightly damped and susceptible to vibrations, active vibration control is desirable. In practice, in addition to achieving effective vibration reduction, we have also to consider the required control energy to avoid the energy insufficiency, the control input to avoid control saturation and reduce the effects of measurement noises. On the other hand, as flexible structures have infinite number of resonant modes and only the first few can be employed in the system modeling and the controller design, there always exist neglected high-frequency dynamics, which can induce the spillover instability. Furthermore, the parametric uncertainties on modal parameters can degrade the control performances and even destabilize the closed-loop system. In this context, a quantitative robust control methodology for active vibration control of flexible structure is proposed in this thesis. Phase and gain control polices are first proposed to enforce frequency-dependent phase and gain requirements on the controller, which can be realized by the output feedback H1 control design. The phase and gain control polices based H1 control can make a trade-off among the complete set of control objectives and offer a qualitative robust controller. Especially, the LPV H1 control is used to reduce the required control energy for LPV systems. The generalized polynomial chaos (gPC) framework with finite element analysis is employed for uncertainty quantification. It allows us to investigate the effects of structural property uncertainties on natural frequencies and achieve their probabilistic information. Then, in the presence of parametric and dynamic uncertainties, µ / v analysis and the random algorithm using Monte Carlo Method are used to quantitatively ensure the closed-loop stability and performance robustness properties both in deterministic and probabilistic senses. The proposed quantitative robust control methodology is thus developed by employing various techniques from automatic control and mechanical engineering, thus reducing the gap between them for robust vibration control of flexible structures. Its effectiveness are verified by numerical simulations and experimental validation on LTI and LPV non-collocated piezoelectric cantilever beams.
38

La basse fondamentale de Jean-Philippe Rameau et son objectivité : une approche phénoménologique / Jean-Philippe Rameau's fundamenatl bass and its objectivity : a phenomenological approach

Straehli, Benjamin 04 November 2015 (has links)
Jean-Philippe Rameau affirme que l'harmonie a pour principe la basse fondamentale. Il soutient également que cette basse fondamentale est quelque chose qui peut se sentir dans la pratique musicale. Néanmoins, il ne considère pas ce sentiment comme une justification suffisante pour son principe. En conséquence, il n'explique pas précisément en quoi ce sentiment peut consister, et préfère donner des arguments physico-mathématiques.La présente thèse traite du problème suivant: qu'est-ce donc que sentir la basse fondamentale, et ce sentiment est-il réellement inapte à justifier ce concept? Pour y répondre, il faut prêter attention aux opérations par lesquelles le lecteur de Rameau est invité à cultiver sa sensibilité à l'harmonie. Il s'agit de commenter ces opérations à l'aide de la phénoménologie de Husserl. Pour produire une phénoménologie de la basse fondamentale, il importe de décrire les sons avec plus de précision que Rameau ne le fait dans ses traités. Cela peut être réalisé grâce au solfège généralisé de Pierre Schaeffer.Mais pour cela, un travail préparatoire est nécessaire. L'introduction vise à montrer qu'il n'y a rien d'étrange, pour traiter de l'harmonie du dix-huitième siècle, à se servir des travaux de Schaeffer. Les quatre premiers chapitres ont pour but de clarifier le concept de basse fondamentale. Les quatre derniers visent à produire une phénoménologie de certains aspects du son, de l'harmonie et de la basse fondamentale. Il apparaît alors que le sentiment peut effectivement justifier la décision de considérer la nasse fondamentale comme le principe de l'harmonie; mais une telle justification n'a pas toute la force que recherchait Rameau. / Jean-Philippe Rameau has claimed that the fundamental bass is the principle of harmony. He also presents this fundamental bass as something which can be felt in musical practice. Nevertheless, he doesn't consider that feeling as a sufficient justification for his principle. As a consequence, he doesn't explain precisely what that feeling consists in, and he prefers to develop some physical and mathematical arguments to prove his theory.This thesis deals with the following issue: what is it like to feel the fundamental bass, and does this feeling really offer no sufficient justification for that concept? To answer those questions, attention has to be paid to the operations by which Rameau's reader is supposed to cultivate his own sensibility to harmony; and they shall be commented with the help of husserl's phenomenology. To provide a phenomenology of the fundamental bass, it is necessary to describe sounds more precisely than Rameau does in his treatises. Such a description shall be achieved thanks to Pierre Schaeffer's generalized solfeggio.But to make it possible, some preliminary work is required. An introduction shall argue that there is nothing strange in using Schaeffer's work to deal with harmony of the eighteenth century. The first four chapters are intended to clarify the concept of fundamental bass. The last four chapters are intended to produce a phenomenology of some aspects of sound, harmony and fundamental bass. At the end of this thesis, it appears that feeling can justify the fundamental bass to be considered as the principle of rules; but this justification does not have the strength Rameau was looking for.
39

Optimisation topologique de structures sous contraintes de flambage / Structural topology optimization under buckling constraints

Mitjana, Florian 07 June 2018 (has links)
L'optimisation topologique vise à concevoir une structure en recherchant la disposition optimale du matériau dans un espace de conception donné, permettant ainsi de proposer des designs optimaux innovants. Cette thèse est centrée sur l'optimisation topologique pour des problèmes de conception de structures prenant en compte des contraintes de flambage. Dans une large variété de domaines de l'ingénierie, la conception innovante de structures est cruciale. L'allègement des structures lors la phase de conception tient une place prépondérante afin de réduire les coûts de fabrication. Ainsi l'objectif est souvent la minimisation de la masse de la structure à concevoir. En ce qui concerne les contraintes, en plus des contraintes mécaniques classiques (compression, tension), il est nécessaire de prendre en compte des phénomènes dits de flambage, qui se caractérisent par une amplification des déformations de la structure et une potentielle annihilation des capacités de la structure à supporter les efforts appliqués. Dans le but d'adresser un large panel de problèmes d'optimisation topologique, nous considérons les deux types de représentation d'une structure : les structures treillis et les structures continues. Dans le cadre de structures treillis, l'objectif est de minimiser la masse en optimisant le nombre d'éléments de la structure et les dimensions des sections transversales associées à ces éléments. Nous considérons les structures constituées d'éléments poutres et nous introduisons une formulation du problème comme un problème d'optimisation non-linéaire en variables mixtes. Afin de prendre en compte des contraintes de manufacturabilité, nous proposons une fonction coût combinant la masse et la somme des seconds moments d'inertie de chaque poutre. Nous avons développé un algorithme adapté au problème d'optimisation considéré. Les résultats numériques montrent que l'approche proposée mène à des gains de masses significatifs par rapport à des approches existantes. Dans le cas des structures continues, l'optimisation topologique vise à discrétiser le domaine de conception et à déterminer les éléments de ce domaine discrétisé qui doivent être composés de matière, définissant ainsi un problème d'optimisation discret. [...] / Topology optimization aims to design a structure by seeking the optimal material layout within a given design space, thus making it possible to propose innovative optimal designs. This thesis focuses on topology optimization for structural problems taking into account buckling constraints. In a wide variety of engineering fields, innovative structural design is crucial. The lightening of structures during the design phase holds a prominent place in order to reduce manufacturing costs. Thus the goal is often the minimization of the mass of the structure to be designed. Regarding the constraints, in addition to the conventional mechanical constraints (compression, tension), it is necessary to take into account buckling phenomena which are characterized by an amplification of the deformations of the structure and a potential annihilation of the capabilities of the structure to support the applied efforts. In order to adress a wide range of topology optimization problems, we consider the two types of representation of a structure: lattice structures and continuous structures. In the framework of lattice structures, the objective is to minimize the mass by optimizing the number of elements of the structure and the dimensions of the cross sections associated to these elements. We consider structures constituted by a set of frame elements and we introduce a formulation of the problem as a mixed-integer nonlinear problem. In order to obtain a manufacturable structure, we propose a cost function combining the mass and the sum of the second moments of inertia of each frame. We developed an algorithm adapted to the considered optimization problem. The numerical results show that the proposed approach leads to significant mass gains over existing approaches. In the case of continuous structures, topology optimization aims to discretize the design domain and to determine the elements of this discretized domain that must be composed of material, thus defining a discrete optimization problem. [...]
40

Les fonctions de puissances ɸ-généralisées et leurs applications

Ouellet, Mathieu January 2019 (has links) (PDF)
No description available.

Page generated in 0.0657 seconds