Spelling suggestions: "subject:"aux"" "subject:"taux""
181 |
Fiscalité, programmes sociaux et incitation au travail - une comparaison Québec - OntarioBlancquaert, Arnaud 23 April 2018 (has links)
Ce mémoire présente un portrait de la situation des taux marginaux effectifs d’imposition (TMEI) et des taux d’imposition à la participation (TIP) sur le revenu de travail au Québec et en Ontario. Il vise une meilleure compréhension de l’impact de la fiscalité et des transferts sociaux sur le comportement des agents, entre autres choses sur le marché du travail. À l’aide d’un modèle de microsimulation comptable reproduisant les systèmes d’impôts et de transferts au Québec et en Ontario, nous mesurons les TMEI et les TIP qui résultent de l’interaction des mécanismes de perception et de redistribution et présentons la répartition des TMEI et des TIP au sein des populations québécoise et ontarienne. Nous produisons en outre une répartition contre-factuelle des TMEI et des TIP en soumettant les ménages québécois au système d’imposition et de transferts sociaux de l’Ontario.
|
182 |
Clairance d'iohexol mesurée par LC-MS chez des sujets recevant une combinaison de substance de contraste iohexol-iodixanolDenis, Marie-Claude January 2007 (has links)
En marge d'expériences actuelles visant à développer une méthodologie analytique sur la pharmacocinétique-pharmacodynamique de la N-acétyl-cystéine (NAC) en prévention de la néphropathie liée à l'exposition aux substances de contraste (NESC), une mesure de la clairance des substances de contraste a été mise au point comme marqueur de filtration glomérulaire (FG) étant donné que celles-ci sont totalement éliminées par FG. Ainsi, la mesure de la FG a été déterminée par la clairance de l'iohexol, substance de contraste utilisée en imagerie médicale. L'originalité de ce projet est triple: (1) mesurer la clairance de l'iohexol (Omnipaque) chez des patients recevant également de l'iodixanol (Visipaque), substance de contraste de plus en plus utilisée; (2) explorer la mesure de la clairance d'iodixanol et (3) utiliser la spectrométrie de masse couplée à la chromatographie liquide, qui depuis les dernières années s'est taillée une place de plus en plus importante, pour le dosage de l'iohexol et de l'iodixanol. Le projet actuel s'est déroulé chez 17 sujets avec divers niveaux de fonction rénale devant subir des examens d'imagerie avec des substances de contraste. Une dose-traceur d'iohexol (5 ml) a été co-administrée avec l'iodixanol (environ 95 ml). Des spécimens sanguins ont été obtenus 0, 1, 2, 3, 4, 8 et 24 heures post-imagerie pour mesurer les clairances de l'iohexol et de l'iodixanol. Le comportement des autres marqueurs conventionnels de FG, soit le taux créatinine plasmatique et la clairance de la créatinine, ainsi que la clairance de la cystatine C et la clairance d'iodixanol ont été comparés à la clairance d'iohexol. Par conséquent, un protocole scientifique par HPLC-MSD Tof a été développé afin de séparer et de quantifier les molécules iohexol et iodixanol co-administrées dans le plasma des sujets. Les mesures des taux plasmatiques de ces deux molécules ont permis de déterminer par des calculs pharmacocinétiques que la clairance de l'iohexol discrimine bien la fonction rénale des sujets avec une fonction rénale normale de ceux avec une fonction rénale diminuée. De plus, il a été démontré qu'une seule mesure post-4 heures est suffisante pour diagnostiquer l'état de la fonction rénale d'un patient qui a subi une intervention demandant une exposition aux substances de contraste. Les corrélations entre la clairance de l'iohexol et d'autres marqueurs conventionnels de FG ainsi que celle de l'iodixanol ont illustré que la clairance de la créatinine calculée soit par l'équation MDRD (r = 0,714 et p = 0,001) ou par Cockcroft et Gault (r = 0,518 et p = 0,033) et la clairance de la cystatine C (r = 0,671 et p = 0,003) corrèlaient de manière significative avec l'étalon d'or, soit la clairance de l'iohexol. C'est pourquoi, il pourrait être possible de se fier à la mesure de la clairance de l'iohexol comme meilleur marqueur de FG afin de prévenir, de diagnostiquer et de traiter la NESC. De plus, des expériences scientifiques en recherche fondamentale pourront enfin être menées pour déterminer la relation pharmacodynamique- pharmacocinétique de la N-acétylcystéine dans la prévention de la NESC à l'aide de la mesure de la clairance de l'iohexol comme marqueur fiable de la FG. Enfin, les mécanismes d'action qui interviennent dans la NESC pourront être mieux évalués.
|
183 |
Étude du protocole d'illumination sur le métabolisme tumoral en thérapie photodynamique du cancer à l'aide de l'imagerie tomographique d'émission par positronsMongrain, Kim January 2009 (has links)
La thérapie photodynamique (TPD) est un traitement du cancer alternatif aux méthodes déjà bien connues telles que la chimiothérapie, la radiothérapie et la chirurgie. La TPD nécessite trois composantes afin de détruire les tissus cancéreux : un agent photosensibilisateur (PS) localisé préférentiellement dans la tumeur, l'oxygène moléculaire présent dans l'environnement tumoral et un faisceau lumineux focalisé à une longueur d'onde permettant l'activation du PS. Les dommages oxydatifs induits par la TPD peuvent être causés selon deux mécanismes d'action et ensuite provoquer différents types de réponse au niveau des cellules tumorales et de leur environnement. En effet, la TPD peut s'attaquer aux cellules tumorales et à leurs constituants directement ou bien détruire la microvascularisation tumorale responsable de l'apport en nutriments et en oxygène. Cette destruction massive engendre par la suite des réponses immunitaires et inflammatoires de différente intensité selon le type de protocole de TPD utilisé. Plusieurs variations de protocole sont possibles en TPD du cancer et la modulation de la lumière à différents niveaux tels que la durée de l'illumination, le débit et la dose totale, semble être un facteur important dans la réponse cellulaire métabolique suite au traitement. En effet, le taux de fluence peut influencer la réponse métabolique des cellules tumorales tout comme la réponse inflammatoire et immunitaire. L'hypothèse de recherche de ces travaux est d'identifier un régime d'illumination optimal favorisant la destruction des cellules tumorales tout en diminuant les effets secondaires induits par le traitement à la TPD. L'étude du protocole d'illumination peut offrir un moyen de mieux comprendre l'implication du débit de lumière dans la réponse tumorale au traitement. La tomographie d'émission par positrons (TEP) est un outil d'imagerie moléculaire non-invasif et très sensible permettant d'étudier plusieurs processus biologiques, physiologiques et moléculaires in vivo dans divers domaines tels que la cardiologie, la neurologie et l'oncologie. Au Centre d'imagerie moléculaire de Sherbrooke (CIMS), la recherche préclinique impliquant la TEP propose, quant à elle, un moyen facile, rapide et non-invasif d'améliorer le développement de nouvelles thérapies et de nouveaux radiotraceurs permettant la détection plus précoce de certains cancers. Le [[indice supérieur 18]F]-fluorodéoxyglucose (FDG) demeure néanmoins le traceur le plus utilisé tant au niveau clinique que préclinique pour évaluer le métabolisme tumoral. La combinaison de l'imagerie TEP à la TPD offre donc une méthode prometteuse pour évaluer l'effet du traitement sur le métabolisme tumoral. D'une part, les modifications de consommation tumorale de glucose permettent de caractériser l'efficacité du traitement résultant de différents taux de fluence. D'autre part, l'observation en temps réel les [des] effets transitoires au niveau du métabolisme tumoral durant la période de traitement a le potentiel de fournir des informations sur les mécanismes d'action de la TPD. En effet, des études antérieures ont permis de démontrer les possibilités offertes par cette combinaison dans l'étude de l'efficacité des PS et dans la détermination de mécanismes d'action responsable de l'action anti-tumorale de la TPD. Ce mémoire propose comme objectif global d'explorer l'apport d'une approche complémentaire aux études in vitro et aux procédures in vivo courantes visant à mieux comprendre la relation entre le débit de lumière et les effets observés à différents temps post-traitement grâce à l'observation des phénomènes survenant immédiatement après le début de l'illumination. Plus spécifiquement, les objectifs sont de déterminer quels sont les taux de fluence favorisant la meilleure réponse métabolique suivant la TPD, d'évaluer le temps de [?] nécessaire afin d'observer un changement métabolique tumoral et de tenter de comprendre quels sont les mécanismes impliqués durant la TPD lorsqu'il y a une variation du taux de fluence. Un modèle animal de rat, portant 2 tumeurs d'adénocarcinome mammaire, a été utilisé lors des expérimentations de TPD combinées à l'imagerie TEP en temps réel. Les résultats obtenus ne parviennent pas à cerner précisément les mécanismes responsables des changements transitoires durant l'illumination, ni à prouver quel taux de fluence serait le plus efficace métaboliquement. Par contre, il est possible d'observer 2 groupes répondant différemment à la TPD : les bas (25 et 50 mW/cm[indice supérieur 2]) et les hauts taux de fluence (100 à 200 mW/cm[indice supérieur 2]). Les résultats de ces 2 groupes soutiennent des hypothèses de travaux en cours ou déjà publiés concernant la vascularisation et l'inflammation et démontrent la faisabilité d'étude d'un modèle de variation de traitement grâce à l'imagerie TEP. D'ailleurs, en plus d'avoir démontré l'intérêt de visualiser la réponse tumorale métabolique et inflammatoire en temps réel durant le traitement, ce projet de recherche pave la voie à l'usage d'autres radiotraceurs afin de mettre en évidence l'effet d'autres processus métaboliques et physiologiques durant et à la suite de la TPD, tels l'apoptose, la stase vasculaire et l'hypoxie. Il s'avère aussi intéressant dans le développement d'autres protocoles d'imagerie en temps réel, tel que pour l'imagerie par résonance magnétique (IRM), en fournissant de solides bases d'interprétation concernant les changements tumoraux transitoires.
|
184 |
Risque de salmonellose humaine liée à la consommation de fromage à pâte molle au lait cru : développement d'un modèle pour l'appréciation quantitative du risqueFares, Almabrouk 17 December 2007 (has links) (PDF)
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de Camembert fromage au lait cru. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons developeé une méthode rapide, sensible et fiable pour la quantification des salmonelles dans le lait artificiellement contaminé. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1- 5 ufc/mL) du lait peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans des échantillons de lait. Afin d'évaluer l'utilité de cette analyse de quantification, nous l'avons appliquée aux échantillons naturellement contaminés de lait de tank d'exploitations laitières situées dans l'Ouest de la France. Huit (2,68%) des 299 échantillons de lait de tank étaient trouvés positifs, avec des comptes estimés de nombre plus probable s'étendant de 3,7 à 79,2 /mL de lait. En dépit des problèmes d'inhibition observés avec quelques échantillons de lait, l'application de l'analyse par PCR en temps réel pour mesurer des salmonelles dans le lait cru s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation des risques potentiels liés aux salmonelles dans le lait cru et les produits à base de lait cru il était nécessaire d'examiner la vii capacité des salmonelles à se développer dans le lait. Par conséquent, nous présentons dans cette thèse des modèles primaires et secondaires décrivant mathématiquement la croissance des salmonelles (S. Typhimurium et S. Montevideo) dans le lait à température constante pendant différentes périodes d'incubation. Le modèle logistique avec délai a été employé pour décrire la croissance des salmonelles en fonction du temps. Les taux de croissance spécifiques de S. Typhimurium et de S. Montevideo différent selon le sérotype et la température. Les taux de croissance maximum ont été alors modélisés en fonction de la température en utilisant le modèle cardinal secondaire de Rosso. Les valeurs cardinales obtenues avec S. Typhimurium et S. Montevideo étaient: Tmin 3,02, 3,40 ; Topt 38,44, 38,55 et Tmax 44,51, 46,97°C, respectivement. À la température optimum de croissance (Topt) les taux de croissance maximum étaient 1,36 et 1,39 log10 ufc/h-1 pour S. Typhimurium et S. Montevideo respectivement. Les modèles primaires et secondaires ont permis de bons ajustements aux données de croissance avec un pseudo R2 = 0.97-0.99. Un modèle d'appréciation du risque de salmonellose humaine liée à la consommation de Camembert au lait cru est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 25 g du fromage. Le 99th percentile du nombre de cellules de salmonelles dans les portions de 25 g de fromage était 5 cellules à l'heure de la consommation, correspondant à 0,2 cellule des salmonelles par gramme. Le risque de salmonellose par portion de 25 g est compris entre 0 et 1,2 × 10-7 avec une médiane de 7,4 × 10-8. Pour 100 millions de portions de 25g, le nombre de cas de salmonellose prévue par le modèle est en moyenne de 7,4. Quand la prévalence est réduite dans le modèle d'un facteur de 10, le nombre de cas par 100 millions de portions est réduit à moins de 1 cas. En dépit des limites et des données manquantes, nous avons démontré l'avantage de l'appréciation du viii risque non seulement comme outil d'évaluation de risque mais également comme dispositif d'aide à la prise de décision et à la gestion des risques.
|
185 |
Les cycles de campagnols des champs dans l'Ouest de la France : une vieille question revisitée à l'aide d'outils modernes.Pinot, Adrien 19 October 2012 (has links) (PDF)
Les dynamiques cycliques sont observées chez de nombreux rongeurs. Longtemps une cause unique a été recherchée pour expliquer tous les cycles. Cependant, différentes analyses locales ont permis de montrer que les causes des cycles sont bien souvent différentes en fonction de l'espèce ou du milieu concerné. Il est donc important de travailler à une échelle locale pour comprendre ces dynamiques particulières. Durant cette thèse, j'ai cherché à comprendre la dynamique cyclique du campagnol des champs dans les plaines agricoles de l'Ouest de la France. Trois axes ont été principalement abordés : 1) la structure de la densité dépendance au sein du système cyclique ; 2) la variation des traits d'histoire de vie (survie et reproduction) responsables des différentes phases du cycle ; 3) la relation entre les traits d'histoire de vie et l'agriculture. Pour ce faire, des approches de modélisation, d'analyse de données empiriques et de données expérimentales ont été utilisées. Les principaux résultats obtenus sont que les cycles du campagnol des champs montrent deux phases densité-dépendantes. La première est la phase de déclin des effectifs, se déroulant en hiver et étant due à une modification de la reproduction par des mécanismes de densité dépendance directe. La seconde est une phase de stagnation des effectifs à basse densité. Elle est probablement plurifactorielle et due à des mécanismes de densité dépendance retardée. Enfin, nous avons montré que les pratiques agricoles et le type de culture avait un impact fort sur les traits démographiques et que ceux-ci dépendent de la saison. Cette thèse a principalement servi à proposer un schéma cohérent expliquant le fonctionnement de notre système cyclique. Néanmoins, les mécanismes sous-jacents restent à élucider. Dans cette optique, des pistes ont été initiées concernant la recherche d'effets maternels ou la déplétion de la ressource par les individus.
|
186 |
A contribution to the understanding of the High Burn-up Structure formation in nuclear fuels / Une contribution à la compréhension de la formation de la structure à haut taux de combustion dans les combustibles nucléairesJonnet, Jérôme 09 January 2007 (has links)
Une augmentation du taux de combustion des combustibles nucléaires UO2 dans les réacteurs à eau légère se traduit par l’apparition d’un changement de structure microscopique, appelée HBS. Bien que caractérisée expérimentalement de façon détaillée, des points importants sur les mécanismes de sa formation restent à éclaircir. Afin de répondre à ces questions, une étude de la contribution des défauts de type dislocation a été conduite. Dans une première partie, une méthode de calcul du champ de contraintes associées à des configurations périodiques de dislocations a été développée. La méthode a été appliquée aux cas des empilements et murs de dislocations de type coin, pour lesquels une expression explicite du potentiel des contraintes internes a été obtenue. A travers l’étude d’autres exemples de configurations, il a été mis en évidence que cette méthode permet le calcul de n’importe quelle configuration périodique de dislocations. Dans une seconde partie, l’évolution des défauts d’irradiation de type boucle d’interstitiels a été étudiée dans des échantillons de combustible UO2 dopé avec 10% en masse d’émetteurs alpha. Les distributions expérimentales en taille de boucles d’interstitiels ont été obtenues pour ces échantillons stockés pendant 4 et 7 ans à température ambiante. Des équations cinétiques sont proposées afin d’étudier l’influence de la remise en solution d’interstitiels contenus dans une boucle due à un impact avec l’atome de recul 234U, ainsi que la coalescence de deux boucles de dislocation pouvant diffuser en volume. L’application du modèle montre que les deux processus introduits doivent être considérés dans l’étude de l’évolution des défauts d’irradiation. / An increase of the discharge burn-up of UO2 nuclear fuels in the light water reactors results in the appearance of a change of microscopic structure, called HBS. Although well characterised experimentally, important points on the mechanisms of its formation remain to be cleared up. In order to answer these questions, a study of the contribution of the dislocation-type defects was conducted. In a first part, a calculation method of the stress field associated with periodic configurations of dislocations was developed. The method was applied to the cases of edge dislocation pile-up and wall, for which an explicit expression of the internal stress potential was obtained. Through the study of other examples of dislocation configurations, it was highlighted that this method also allows the calculation of any periodic dislocation configuration. In a second part, the evolution of interstitial-type dislocation loops was studied in UO2 fuel samples doped with 10% in mass of alpha emitters. The experimental loop size distributions were obtained for these samples stored during 4 and 7 years at room temperature. Kinetic equations are proposed in order to study the influence of the re-solution process of interstitials from a loop back to the matrix due to an impact with the recoil atom 234U, as well as the coalescence of two interstitial loops that can diffuse by a volume mechanism. The application of the model shows that the two processes must be considered in the study of the evolution of radiation damage.
|
187 |
L'impact de la volatilité des taux de change sur le commerce international : essai de validation empirique désagrégées des exportations sectorielles canadiennes vers les États-Unis via une approche d'estimation VARBen Salah, Hamdy 08 1900 (has links)
La présente étude offre un panorama sur les interactions et les liens qui existent entre la volatilité des taux de change et les échanges internationaux. L’objectif de ce travail est donc de présenter théoriquement cette relation, puis d’examiner empiriquement l’existence de cette relation de causalité entre le commerce international et la variabilité des taux de change. La littérature portant sur la question se considère dans l'ensemble comme contradictoire et supporte plusieurs controverses qui ne nous permettent pas de conclure clairement quant à la relation en question. Nous essayerons de pousser ces recherches un peu plus loin en réexaminant cette évidence pour le canada et en offrant une investigation empirique sur l’existence éventuelle d'un impact significatif de la volatilité sur les flux désagrégées des exportations sectoriels du canada vers son partenaire, les États-Unis. Nous y examinons la réponse empirique de 5 secteurs d’exportations canadiennes aux variations du taux de change réel effectif entre le canada et les États- Unis.
Toutefois, nos résultats obtenus ne nous permettent pas de conclure quant à la significativité relative d’un impact de volatilité de taux de change sur les exportations sectoriels désagrégées destinées aux États-Unis. Dans l’ensemble, même si on admet que les signe des coefficients estimés de la variable de risque dans chaque secteur est négatif, nous arrivons à la conclusion que la volatilité ne semble pas avoir un impact statistiquement significatif sur le volume réelle des exportations du Canada vers les États-Unis. / This study provides an overview on the interactions and linkages between the volatility of exchange rates and international trade. The objective of this work is to present this relationship theoretically and examine, empirically the existence of this causal relationship between international trade and exchange rate variability. The literature on the subject considers himself across as contradictory and supports several controversies that do not allow the clear conclusion about the relationship in question.
We try to push this research a step further by reviewing the evidence for Canada and providing an empirical investigation on the possible existence of a significant impact of volatility on sectoral disaggregated flows of Canadian exports to its trading partner, the United States. We empirically examine the response of five sectors of Canadian exports to changes in real effective exchange rate between Canada and the United States.
However, our results do not allow us to conclude about the significance of an impact on volatility of exchange rates on disaggregated sectoral exports to United States. Overall, even if we admit that the sign of the estimated coefficients of the exchange risk variable in each sector is negative, we reach the conclusion that the volatility does not seem to have a statistically significant impact on the real volume of exports from Canada to the United States.
|
188 |
Le remplacement des années vécues : une alternative à l'immigration et à la fécondité pour le remplacement des populationsMénard, Pierre-Olivier January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
189 |
Modélisation d'un réseau de neurones humains dans le but de comprendre la dégradation neurale lors du vieillissementAllard, Rémy January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
190 |
Une approche très efficace pour l'analyse du délaminage des plaques stratifiées infiniment longues / A very efficient approach for the analysis of delamination in infinitely long multilayered platesSaeedi, Navid 18 December 2012 (has links)
L'analyse des phénomènes locaux comme les effets de bord libre et le délaminage dans les structures multicouches nécessite des théories fines qui donnent une bonne description de la réponse locale. Étant donné que les approches tridimensionnelles sont, en général, très coûteuses en temps de calcul et en mémoire, des approches bidimensionnelles de type layerwise sont souvent utilisées. Dans ce travail de doctorat, un modèle layerwise en contrainte, appelé LS1, est appliqué au problème du multi-délaminage dans les plaques stratifiées invariantes dans le sens longitudinal. L'invariance dans la direction de la longueur nous permet d'aborder le problème analytiquement. Dans un premier temps, nous proposons une méthode analytique pour l'analyse des plaques multicouches multi-délaminées soumises à la traction uniaxiale. La singularité des contraintes interlaminaires aux bords libres et l'initiation du délaminage en mode III sont étudiées. Un modèle raffiné, nommé LS1 raffiné, est proposé pour améliorer les approximations dans les zones de singularités telles que les bords libres et les pointes de fissure. Les résultats du modèle raffiné sont validés en les comparant avec ceux obtenus par éléments finis tridimensionnels. Dans un deuxième temps, l'approche analytique proposée est étendue à la flexion cylindrique des plaques multicouches. La propagation du délaminage en modes I et II est étudiée et les approximations du modèle LS1 sont validées. À la fin, nous généralisons la méthode analytique proposée afin de prendre en considération tous les chargements invariants dans le sens longitudinal. L'approche finale permet d'analyser les plaques multicouches rectangulaires soumises à des charges invariantes sur les faces supérieure et inférieure, les forces ou les déplacements imposés sur les bords latéraux ainsi que quatre types de chargement sur les extrémités longitudinales: traction uniaxiale, flexion hors plan, torsion et flexion dans le plan. La solution analytique du modèle LS1 est obtenue pour une plaque stratifiée soumise à tous les chargements mentionnés ci-dessus. L'approche est validée en comparant avec la méthode des éléments finis tridimensionnels pour plusieurs types de chargement / The analysis of local phenomena such as free-edge effects and delamination in multilayered structures requires the accurate theories which can provide a good description of the local response. Since the three-dimensional approaches are generally very expensive in computational time and memory, the layerwise two-dimensional approaches are widely used. In this Ph.D. thesis, a stress layerwise model, called LS1, is applied to the multi-delamination problem in longitudinally invariant multilayered plates. The invariance in the longitudinal direction allows us to solve the problem analytically. At first, we propose an analytical method for the analysis of multi-delaminated multilayered plates subjected to the uniaxial traction. The free-edge interlaminaire stress singularities and the mode III delamination onset are investigated. A refined model, called Refined LS1, is proposed in order to improve the approximations in singularity zones such as free edges and crack tips. The results of the refined model are validated by comparing them with those obtained by a three-dimensional finite element model. Afterwards, the proposed analytical approach is extended to the cylindrical bending of the multilayered plates. The propagation of delamination in modes I and II is studied and the approximations of the LS1 model are validated. At last, we generalize the proposed analytical method to take into account all invariant loads in the longitudinal direction. The final approach allows us to analyze the rectangular multilayered plates subjected to invariant loads on the top and bottom surfaces, imposed displacements or forces at the lateral edges, and also four types of loading at the longitudinal ends: uniaxial traction, out-of-plane bending, torsion and in-plane bending. The analytical solution of the LS1 model is obtained for a laminated plate subjected to all the loads mentioned above. The approach is validated by comparison with the three-dimensional finite element method for various types of loading
|
Page generated in 0.0649 seconds