• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 139
  • 50
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 637
  • 211
  • 172
  • 118
  • 109
  • 100
  • 95
  • 81
  • 78
  • 72
  • 69
  • 63
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation de la relation entre les paramètres du procédé plasma et les caractéristiques de la qualité du matériau textile par apprentissage de données physiques / Modeling the relationship between the plasma process parameters and the quality features of textile material by learning of experimental data

Abd Jelil, Radhia 28 April 2010 (has links)
La technique par plasma atmosphérique semble efficace pour la modification des surfaces de matériaux textiles car le traitement est rapide, peu onéreux et écologiquement propre. En dépit de ces avantages, il est extrêmement difficile de comprendre la relation complexe non-linéaire entre les paramètres du procédé plasma et les propriétés finales des matériaux. L’étude et l’optimisation d’un tel procédé doivent être donc basées sur une exploitation des techniques intelligentes telles que la logique floue et les réseaux de neurones. Dans une première partie, l'impact de traitement par plasma de type Décharge à Barrière Diélectrique (DBD) sous air est étudié sur différents types de tissus en polyester et viscose. Afin de mieux comprendre l’effet de la structure textile sur les résultats du traitement, une sélection des paramètres les plus pertinents a été effectuée en utilisant un critère de sensibilité basé sur la logique floue. Il a été mis en évidence que la puissance électrique, la vitesse de traitement, la matière, la finesse des fibres, la perméabilité à l’air, l’armure et la densité des pics ont une influence sur la mouillabilité et la capillarité des tissus. Dans la dernière partie de cette étude, une approche utilisant les réseaux de neurones a été développée afin de prédire la relation entre les paramètres pertinents sélectionnés et les propriétés hydrophiles des tissus. Des résultats tout à fait satisfaisants ont été obtenus et montrent une bonne capacité de généralisation. En outre, une analyse quantitative par poids des connexions a été menée pour analyser l’importance relative des paramètres d’entrée. Les résultats de cette analyse sont cohérents avec ceux obtenus en utilisant le critère de sensibilité flou. Ceci permet donc de confirmer d’une part l’influence des paramètres sélectionnés, et d’autre part de montrer la fiabilité des réseaux neuronaux. / Atmospheric plasma treatment seems to be a good way to treat quickly, cheaply and ecologically textile material surfaces. Despite these advantages, it is extremely difficult to understand the complex non-linear relationship between the plasma processing parameters and the final properties of materials. Therefore, the study and optimization of such process must be based on an exploitation of intelligent techniques such as fuzzy logic and neural networks. In a first part, the impact of atmospheric air Dielectric Barrier Discharge (DBD) plasma treatment is studied on different types of polyester and viscose woven fabrics. In order to get a better understanding on how the structure of woven fabrics influence on the results of the plasma treatment, a selection of the most relevant parameters was carried out by using a fuzzy logic based sensitivity variation criterion. This work shows that that the electric power, the treatment speed, the composition, the fibers fineness, the air permeability, the weave construction and the summit density have an influence on the wettability and the capillarity of fabrics. Lastly, a neural network approach was developed to predict the relationship between the selected input parameters and the fabric hydrophilic properties. Very satisfactory results were obtained and show a good capacity of generalization. Moreover, a quantitative analysis based on the weights of connections was conducted to analyze the relative importance of the input parameters. The results of this analysis are coherent with those obtained by using the fuzzy logic based sensitivity variation criterion. Thus, this finding confirms, on the one hand, the influence of the selected parameters and, on the other hand, it shows the efficiency of neural networks.
2

New regularization methods for the inverse problem of parameter estimation in Ordinary differential equations / Nouvelles méthodes de régularisation du problème inverse d'estimlation de paramètres dans des équations différentielles ordinaires

Clairon, Quentin 09 April 2015 (has links)
Nous présentons dans cette thèse deux méthodes de régularisation du problème d’estimationde paramètres dans des équations différentielles ordinaires (EDOs). La première est une extensionde la méthode two-step, permettant d’obtenir une expression de la variance asymptotique etd’éviter l’usage de la derivée de l’estimateur non-paramétrique. Elle fait appel à la notion desolution faible et propose une caractérisation variationnelle de la solution de l’EDO. Ce faisant,elle identifie le vrai ensemble de paramètres comme celui respectant un ensemble de moments,fonctions plus régulières des paramètres que le critère des moindre carrés. Cette formulationgénérale permet de définir un estimateur s’appliquant à une large classe d’équations différentielles,et pouvant incorporer des informations supplémentaires disponibles sur la solution de l’EDO. Cesarguments, confortés par les resultats numériques obtenus, en font une approche compétitive parrapport aux moindres carrés. Néanmoins, cet estimateur nécessite l’observation de toutes lesvariables d’état.La seconde méthode s’applique également au cas partiellement observé. Elle régularise leproblème inverse par relaxation de la contrainte imposée par l’EDO en replaçant l’équationoriginale par une version perturbée. L’estimateur est ensuite défini à travers la minimisation d’uncoût profilé sur l’ensemble des perturbations possibles et pénalisant la distance entre le modèleinitial et le modèle perturbé. Cette approche introduit un problème d’optimisation en dimensioninfinie résolu grâce à un résultat fondamental de la théorie du contrôle optimal, le principedu maximum de Pontryagin. Il permet de ramener la résolution du problème d’optimisationà l’intégration d’une EDO avec condition aux bords. Ainsi, nous avons obtenu un estimateurimplémentable et que nous avons démontré consistent. Un intérêt particulier est porté au cas desEDOs linéaires pour lequel nous avons démontré la vitesse de convergence paramétrique et lanormalité asymptotique de notre estimateur. En outre, nous disposons d’une expression simplifiéedu coût profilé, ce qui facilite l’implémentation numérique de notre estimateur. Ces résultats sontdus à la théorie linéaire-quadratique, derivée du principe du maximum de Pontryagin dans lecas linéaire, elle assure l’existence, l’unicité et donne une expression simple de la solution duproblème d’optimisation définissant notre estimateur. A travers des exemples numériques nousavons montré que notre estimateur est compétitif avec les moindres carrés et le lissage généralisé,en particulier en présence d’une mauvaise spécification de modèle grâce à la relaxation du modèleoriginal introduite dans notre approche. Enfin, notre méthode d’estimation par utilisation de lathéorie du contrôle optimal offre un cadre pertinent pour traiter des problèmes d’analyse dedonnées fonctionnelles, ceci est illustré à travers un exemple dans le cas linéaire. / We present in this thesis two regularization methods of the parameter estimation problemin ordinary differential equations (ODEs). The first one is an extension of the two-step method,its initial motivations are to obtain an expression of the asymptotic variance and to avoid theuse of the derivative form of the nonparametric estimator. It relies on the notion of weak ODEsolution and considers a variational characterisation of the solution. By doing so, it identifiesthe true parameter set as the one satisfying a set of moments, which are smoother functions ofthe parameters than the least squares criteria. This general formulation defines an estimatorwhich applies to a broad range of differential equations, and can incorporate prior knowledgeson the ODE solution. Theses arguments, supported by the obtained numerical results, make ofthis method a competitive one comparing to least squares. Nonetheless, this estimator requiresto observe all state variables.The second method also applies to the partially observed case. It regularizes the inverseproblem thanks to a relaxation of the constraint imposed by the ODE by replacing the initialmodel by a pertubated one. The estimator is then defined as the minimizer of a profiled cost onthe set of possible perturbations and penalizing the distance between the initial model and theperturbated one. This approach requires the introduction of an infinite dimensional optimizationproblem solved by the use of a fundamental result coming from optimal control theory, the Pontryaginmaximum principle. Its application turns the resolution of the optimization problem intothe integration of an ODE with boundary constraints. Thus, we have obtained an implementableestimator for which we have proven consistency. We dedicate a thorough analysis to the caseof linear ODEs for which we have derived the parametric convergence rate and the asymptoticnormality of our estimator. In addition, we have access to a simpler expression for the profiledcost, which makes the numerical implementation of our estimator easier. Theses results are dueto linear-quadratic theory, derived from the Pontryagin maximum principle in the linear case, itgives existence, uniqueness and a simple expression of the solution of the optimization problemdefining our estimator. We have shown, through numerical examples, that our estimator is acompetitive one comparing to least squares and generalized smoothing, in particular in presenceof model misspecification thanks to the model relaxation introduced in our approach. Furthermore,our estimation method based on optimal control theory offers a relevant framework fordealing with functional data analysis problems, which is emphasized thanks to an example inthe linear case.
3

Influence du mouvement des organes et des paramètres d'acquisition sur la qualité de l'image en scanographie : application à la détermination de la composition chimique des calculs rénaux / Influence of organs motion and of acquisition parameters on CT image quality : application to the renal stones chemical composition determination

Grosjean, Romain 22 September 2008 (has links)
Malgré les nombreuses améliorations qu’a connu la scanographie au cours de ces vingt dernières années, la qualité des images scanographiques reste fortement influencée par le mouvement (volontaire ou involontaire) du patient. La scanographie étant une technique irradiante basée sur l’utilisation des Rayons X, il est impossible d’étudier l’influence du mouvement des organes sur la qualité de l’image en plaçant des sujets sains dans la machine puisque l’exposition non justifiée des personnes au rayonnement est interdite. Des fantômes doivent donc être utilisés pour quantifier la qualité des images. De nombreux fantômes permettant de quantifier la qualité de l’image existent dans le commerce, mais aucun n’est mobile, nous avons donc dû concevoir et fabriquer une plate-forme de mouvement permettant de simuler des mouvements physiologiques. Cette plate-forme nous a permis de montrer que l’influence du mouvement dépendait de la taille, de la forme et du contraste de l’objet étudié. Le mouvement peut engendrer une déformation de l’objet, un redimensionnement et à une modification de sa valeur d’atténuation moyenne. Le mouvement conduit donc à une perte d’information sur la localisation, sur la densité, sur le volume et sur la forme des objets qui ont bougé durant l’acquisition. Cette perte d’information est d’autant plus importante que l’amplitude et/ou la vitesse du mouvement sont élevées. L’utilisation de scanners de générations et de technologies différentes nous a également permis d’étudier l’influence des paramètres d’acquisition (pitch, kV, mAs, vitesse de rotation du tube…) sur la qualité de l’image avec ou sans mouvement. Cette étude a mis en évidence le fait que le choix de paramètres d’acquisition pertinents était primordial pour obtenir une image optimale. L’influence du mouvement sur la qualité de l’image n’est également pas la même en fonction des paramètres d’acquisition choisis. L’étude de l’influence du mouvement et celle des paramètres d’acquisition a ensuite été appliquée à la technique de détermination de la composition chimique des calculs rénaux en CT. Cette technique, basée sur les valeurs d’atténuation aux RX des calculs rénaux, permet théoriquement de caractériser la nature chimique du calcul afin de choisir rapidement le meilleur moyen de traitement possible (LEC, chirurgie…). Pour mener à bien cette étude nous avons collectés des calculs obtenus après interventions urologiques chez des patients. Une analyse morphoconstitutionnelle préalable nous a permis de connaître leur composition chimique. A l’aide de la plus grande série de calculs jamais publiée et d’un fantôme « gelée » développé au sein du laboratoire et respectant au mieux les conditions d’absorption et d’atténuation du rein, nous avons ainsi réussi à mettre en place un protocole permettant de déterminer, avec une précision de 95%, la nature chimique du composant majoritaire d’un calcul. Cette technique, dite de « double énergie », permet d’identifier chaque type de calcul en se basant sur les valeurs d’atténuation aux RX d’un calcul obtenues à 80 et à 120 kV.La technique de « double énergie » n’est malheureusement plus valable quand le fantôme est mis en mouvement. En effet le mouvement génère des artefacts qui engendrent une modification des valeurs d’atténuation des calculs. L’échelle de valeurs, obtenues sans mouvement, permettant d’identifier un calcul n’est alors plus utilisable. Notre technique de caractérisation des calculs purs est donc efficace si et seulement si aucun mouvement n’a lieu durant l’acquisition. / Despite all the improvements known by the Computed Tomography (CT) during the last 20 years, the CT image quality remains heavily influenced by the voluntary or involuntary patient motion. Since the CT is an irradiating imaging modality based on X-rays, it is impossible to study the influence of the organs motion on the image quality by using healthy subjects. Indeed, the unjustified exposure to radiation is prohibited. Consequently, phantoms have to be used to quantify the image quality. Such phantoms are commercially available but none is mobile. We have so designed and built a dynamic platform allowing the simulation of organs motion. This platform allowed us to show that the influence of the motion on image quality depended on the size, the shape and the contrast of the studied object. The motion led to a deformation, a resizing, and to a decreasing of the CT attenuation values of the studied object. The more the speed and the amplitude of the motion were, the more the loss of the information about the object was. The use of CT scanners of different generations, different technologies and different builders allowed us to study the influence of CT acquisition parameters on the image quality with and without motion. This study has highlighted the fact that the choice of the right CT parameters (pitch, kV, mAs, gantry rotation time…) was very important on the determination of the image quality. The influence of theses parameters were not the same with and without motion applied during the acquisition. Once these results obtained, we have tried to develop a technique of determination of the chemical composition of renal stones in CT. This technique is based on-the CT-attenuation values of the renal stones. It allows to characterize rapidly the chemical composition of the renal stone into choose as quickly as possible the best diagnosis and the best treatment (surgery, NPLC…). With the largest number (n = 241) of stones so far described, to our knowledge and with a home made jelly phantom respecting the absorption and the X-ray attenuation of the kidney, we have develop a protocol allowing to determine the chemical nature of the major component of a stone, with a 95% precision. Our dual-energy method allows to identify each stone based on the CT-attenuation values obtained at 80 kV and at 120 kV. Sadly, this method is no more applicable when the phantom moves during the acquisition. Indeed the motion induces decreasing of CT-attenuations values and consequently the scale of values obtained with no motion is no more usable. Our characterization technique works only if absolutely no motion occurs during the acquisition.
4

Contrôle actif en boucle fermée pour le recollement d'une couche limite turbulente épaisse / Closed loop active control to reattach a thick turbulent boundary layer

Alshaqarin, Tamer 12 July 2011 (has links)
Cette étude concerne l'étude d'actionneurs à jets pulsés pour le contrôle de décollements sur une rampe. Des expériences de contrôle en boucle ouverte puis en boucle fermée ont été effectuées avec succès pour réattacher une couche limite turbulente épaisse . Ces tests ont été effectués dans la soufflerie de couches limites du LML (caractérisée par Carlier & Stanislas [2005]), celle-ci ayant la particularité d'avoir une couche limite dillatée permettant d'obtenir des nombre de Reynolds et des temps caractéristiques long. Différents nombre de Reynolds différent basés sur l'épaisseur de quantité de mouvement ont été testés gamme: (Re=75000-12600).Les tests de contrôle en boucle ouverte ont été menées dans la soufflerie pour sélectionner une entrée / sortie adaptée au problème de contrôle, pour identifier les échelles de temps du processus de décollement/réattachement, pour les modéliser, pour choisir les fréquence optimale et pour finalement les utilisées en contrôle en boucle fermée. Ensuite, des contrôleurs simples (Proportionnelle Intégrale (PI) et Régulateur Linéaire Quadratique (RLQ)) ont été implémentés en œuvre expérimentalement en boucle fermée et comparés à des simulations. La réactivité du contrôle, à vitesse de l'écoulement constante, est améliorée par rapport aux résultats en boucle ouverte. La robustesse des contrôleurs a été testée avec des variations de la vitesse de l'écoulement. Ces tests ont mit en évidence la nécessité de contrôleurs plus complexes. Dans cette optique, des contrôleurs robustes H∞, basés sur le modèle linéaire du premier ordre extrait des expériences en boucle ouverte, ont été conçu et simulés. Un modèle Linéaire à Paramètres Variables (LPV) a été proposé. Celui-ci tient compte des variations de la vitesse de l'écoulement. Finalement, un contrôleur robuste H∞ LPV a été proposé pour de future implémentations expérimentales, qui donne de bon résultats en dépit des variations de la vitesse de l'écoulement dans la gamme étudiée. / The current study deals with the employment of the pulsed jet actuators for flow separation over a ramp. Open and closed-loop control experiments were successfully performed to reattach a thick turbulent boundary layer, thanks to large scales of the facility (LML wind tunnel) characterized byCarlier and Stanislas [2005]. They were performed at three Reynolds numbers based on the momentum thickness of the turbulent boundary layer, varying from Re =7500 to 12600.Open-loop control were conducted in wind tunnel experiments to select an adequate input/output for the control problem, identify the time scales of the separation/attachment process, model the separated ow system under actuation, study the inuence of the actuation frequency and extractthe optimal frequencies in the range of study to be used in closed-loop control. Then, simple controllers (Proportional-Integral and Linear Quadratic Regulator) were experimentally implemented in closed-loop congurations and compared to simulations. The control reactivity at constant free stream velocity is improved compared to open-loop results. The robustness of thecontrollers is tested under variations of the free stream velocity, which highlights the need for more complex controllers.Robust H∞ controllers based on rst order model extracted in open-loop experiments, were designed and simulated. Linear Parameter Varying (LPV) model is proposed that takes into account free stream velocity variations. Then, a robust H∞ LPV controller is proposed, that performs well in spiteof free stream velocity variations in all the operating range.
5

Réponse viscoélastique-viscoplastique en grandes déformations du polyéthylène : observations expérimentales, modélisation constitutive et simulation / Large-strain viscoelastic-viscoplastic response of polyethylene : experimental observations, constitutive modeling and simulation

Abdulhameed, Hemin 20 July 2015 (has links)
Ce travail de thèse est une contribution à l’étude de la réponse mécanique en grandes transformations du polyéthylène. Dans une première partie, des observations expérimentales sont données sur la réponse mécanique dépendante du temps de polyéthylènes contenant une large gamme de fractions cristallines. Dans une seconde partie, un modèle de comportement viscoélastique-viscoplastique est développé pour reproduire, lorsque le taux de cristallinité évolue, la transition progressive entre la réponse mécanique typique des thermoplastiques et celle plus typique des élastomères. Afin d’identifier les paramètres du modèle, une méthode déterministe analytique et une méthode numérique, basée sur un algorithme génétique, sont développées. Dans une troisième partie, le modèle de comportement proposé est implanté dans un code de calculs par éléments finis et utilisé pour prédire la réponse d’échantillons multi-couches de polyéthylènes à différentes fractions cristallines. Des comparaisons entre les simulations et les données expérimentales (en termes de réponse mécanique et d’évolution de la striction) mettent en évidence les capacités prédictives du modèle proposé. / This PhD dissertation deals with the large-strain mechanical response of polyethylene. In a first part, experimental observations are reported on the time-dependent mechanical response of polyethylene materials containing a wide range of crystal fractions. In a second part, a large-strain viscoelastic-viscoplastic constitutive model is developed to capture the progressive transition from thermoplastic-like to elastomeric-like mechanical response of polyethylene materials, as the crystal content changes. In order to identify the model parameters, an analytical deterministic scheme and a practical, “engineering-like”, numerical tool, based on a genetic algorithm are developed. In a third part, the proposed constitutive model is implemented into a finite element code and used to predict the response of multi-layered polyethylene specimens with different crystal fractions. Comparisons between the simulations and the experimental data (in terms of mechanical response and necking evolution) point out the model predictive capabilities.
6

Approches comparées des paramètres de Hansen et du modèle COSMO-RS pour l'étude des phénomènes de solubilisation : application à la caractérisation et à la valorisation des agro-solvants / Comparative approaches of Hansen parameters and COSMO-RS model for the study of solubility phenomena : application to the characterization and promotion of biosolvents

Benazzouz, Adrien 23 October 2014 (has links)
L'évolution du cadre réglementaire et la prise de conscience générale des enjeux environnementaux et de santé publique sont à l'origine d'une profonde modification du paysage des solvants. L'avènement de solvants alternatifs, comme les agro-solvants, nécessite le recours à des outils physico-chimiques systématiques de caractérisation de leurs propriétés solubilisantes. L'approche des paramètres de Hansen, issue de la théorie de Hildebrand, propose une représentation des principales interactions moléculaires en solution. Ses performances applicatives ont été éprouvées pour la caractérisation des agro-solvants émergents et l'étude de la solubilisation de solutés moléculaires et macromoléculaires. Alternativement, le modèle COSMO-RS combine chimie quantique et thermodynamique statistique pour la prédiction des propriétés moléculaires à l'état liquide. Les performances de ce modèle ont été évaluées et exploitées pour rendre compte des phénomènes de solubilisation de solutés complexes tels que la nitrocellulose et le C60-fullerène. Permettant de traduire les deux mécanismes principaux de solubilisation (similarité et complémentarité), les descripteurs issus de COSMO-RS ont été mis à profit pour forger de nouveaux paramètres de solubilité aussi simples que ceux de Hansen mais plus rigoureux scientifiquement. Cette jouvence des paramètres de solubilité s'appuie sur la prise en compte des interactions acide-base de Lewis et le concept nouveau de COSMOmorphe permettant le calcul des interactions dispersives. Les connaissances ainsi acquises ont permis l'élaboration d'une microémulsion dégraissante verte dont l'efficacité repose sur un mécanisme original de décapage dégraissant. / The evolution of regulations and the global awareness as result of health and environmental issues are deeply modifying the solvent landscape. With the increasing demand for alternative solvents, such as biosolvents, there is a need for systematic physicochemical tools for the characterization of their solubilizing properties. The Hansen solubility parameters, derived from the theory of Hildebrand, provide a representation of the main molecular interactions in solution. Their applucation performance were tested in order to characterize emerfinf biosolvents and to study the solubilization of molecular and macromolecular solutes. In contrast, the COSMO-RS model combines quantum chemistry and statistical thermodynamics to predict molecular properties int the liquid state. The performance of this model was evaluated and used to account for the solubility phenomena of complex solutes such as nitrocellulose and fullerene-C60. With their ability to handle the two main mechanisms of solubilization (similarity and complementarity), the COSMO-RS descriptors were used to create new solubility parameters as simple as those of Hansen but more scientifically rigorous. This renewal of the solubility parameters is based on the consideration of the Lewis acide-base interactions and the new concept of COSMOmorphe for the calculation of dispersive interactions. These considerations enable the development of a green degreasing microemulsion whose efficiency is based on an unusual mechanism of degreasing-stripping.
7

Couplage thermo-mécanique et auto-échauffement en fatigue des élastomères renforcés / Thermo-mechanical coupling and heat build-up of filled rubbers under fatigue

Ovalle Rodas, Cristian 01 December 2014 (has links)
Ce travail de thèse est une contribution à l’étude du couplage thermo-mécanique et de l’auto-échauffement en fatigue des élastomères renforcés. Dans une première partie, un modèle thermo-élastique physiquement fondé est développé pour décrire la réponse relaxée des élastomères renforcés en grandes transformations. Les effets de la température et du taux de renforts, étudiés expérimentalement sur un SBR renforcé, sont inclus dans la modélisation. Une méthode hybride expérimentale-éléments finis est proposée afin de déterminer simultanément la réponse thermo-mécanique locale et les paramètres du modèle. Les capacités prédictives du modèle proposé sont évaluées par des comparaisons à des simulations micromécaniques.Dans une seconde partie, un modèle thermo-visco-élastique physiquement fondé est développé, et implémenté dans un code de calculs par éléments finis, pour décrire l’auto-échauffement en fatigue des élastomères en grandes transformations. Les comparaisons entre le modèle proposé et les données expérimentales (en termes de réponse mécanique et d’évolution de température) obtenues sur un SBR renforcé, contenant un taux de renforts fixe, mettent en évidence les capacités prédictives de l’approche sur différentes conditions de chargement, en termes de vitesse et de déformation. Enfin, le modèle proposé est étendu pour prendre en compte l’effet du taux de renforts sur l’auto-échauffement. Après identification des paramètres sur un SBR renforcé avec un taux de renforts fixe, les capacités prédictives du modèle sont évaluées sur des SBR renforcés à différents taux de renforts et conditions de chargement. / This PhD dissertation deals with the thermo-mechanical coupling and the heat build-up of filled rubbers under fatigue. In a first part, a physically-based thermo-elastic model is developed to describe the large strain relaxed response of filled rubbers. The temperature and filler effects, experimentally observed on a filled SBR, are included in the modeling. A hybrid experimental-finite element method is proposed to determine simultaneously the local thermo-mechanical response and the model parameters. The predictive capabilities of the proposed model are examined by comparisons to micromechanical simulations. In a second part, a physically-based thermo-visco-elastic model is developed, and implemented into a finite element code, to describe the heat build-up of rubbers under large strain fatigue. Comparisons between the proposed model and the experimental data (in terms of mechanical response and temperature evolution) obtained on a filled SBR, containing a given filler content, point out the predictive capabilities of the approach on different loading conditions, in terms of strain rate and deformation. Finally, the proposed model is extended to account for the filler content effect on the heat build-up. After identification of the parameters on a filled SBR with a given filler content, the predictive capabilities of the model are evaluated on filled SBR with different filler contents and loading conditions.
8

Recherche du rôle des intervenants et de leurs interactions pour la structuration de documents audiovisuels

Bigot, Benjamin 06 July 2011 (has links) (PDF)
Nous présentons un système de structuration automatique d'enregistrements audiovisuels s'appuyant sur des informations non lexicales caractéristiques des rôles des intervenants et de leurs interactions. Dans une première étape, nous proposons une méthode de détection et de caractérisation de séquences temporelles, nommée " zones d'interaction ", susceptibles de correspondre à des conversations. La seconde étape de notre système réalise une reconnaissance du rôle des intervenants : présentateur, journaliste et autre. Notre contribution au domaine de la reconnaissance automatique du rôle se distingue en reposant sur l'hypothèse selon laquelle les rôles des intervenants sont accessibles à travers des paramètres " bas-niveau " inscrits d'une part dans l'organisation temporelle des tours de parole des intervenants, dans les environnements acoustiques dans lesquels ils apparaissent, ainsi que dans plusieurs paramètres prosodiques (intonation et débit). Dans une dernière étape, nous combinons l'information du rôle des intervenants à la connaissance des séquences d'interaction afin de produire deux niveaux de description du contenu des documents. Le premier niveau de description segmente les enregistrements en zones de 4 types : informations, entretiens, transition et intermède. Un second niveau de description classe les zones d'interaction orales en 4 catégories : débat, interview, chronique et relais. Chaque étape du système est validée par une grand nombre d'expériences menées sur le corpus du projet EPAC et celui de la campagne d'évaluation ESTER.
9

Étude de la déchirure ductile basée sur un modèle de croissance de cavités / Damage behaviour of ductil materials : experiment and simulation

Taktak, Rym 04 July 2008 (has links)
Ce travail est une contribution à l'analyse du comportement à l'endommagement des matériaux ductiles. L'endommagement ductile désigne le processus de dégradation progressive des propriétés physiques et mécaniques d'un matériau lorsqu'il subit, sous l'effet d'un chargement et avant rupture, une déformation plastique importante à température ambiante ou peu élevée. L'objectif de ce travail est de déterminer un critère de propagation de fissures pour simuler la déchirure des matériaux ductiles en se basant sur les modèles d'endommagements locaux. Nous avons mené une campagne expérimentale sur 3 matériaux structurellement très différents: un acier 12NC6, un aluminium 2024T351 et un polymère PA66. Le modèle de croissance des cavités Rice-Tracey s'est révélé très limité à décrire la rupture des matériaux testés, nous avons alors proposé une modification de ce modèle en l'enrichissant de paramètres micromécaniques permettant de prendre en compte l'effet de la croissance et des interactions entre les cavités. Le modèle proposé a été implanté dans un code de calcul par éléments finis pour simuler l'amorçage d'une fissure et sa propagation au cours du chargement. Nous avons validé ce modèle analytique à l'aide des résultats expérimentaux des trois matériaux. Les résultats numériques obtenus en termes de courbes R et «charge-déplacement» comparés aux résultats expérimentaux ont permis de valider le modèle sur les trois matériaux étudiés. / The purpose of this thesis is to contribute to the study of ductile fracture of materials on micromechanical models based on local approach. Ductile fracture of metals occurs mainly by nucleation, growth and coalescence of voids. Concerning the local approach of ductile fracture, the emphasis is laid on the micromechanical model of Rice-Tracey. The latter based on growth cavities is verified in order to describe the ductile tearing in stainless steel NiCr(12NC6), 2024T351 aluminium alloy and polymer PA66. The experimental study is carried out on compact tension ct , central crack panel ccp, single edge notched tension sent and tensile axisymetric notched specimens to characterize ductile failure in different materials. The comparison of the experimental results with the classical Rice-Tracey model shows that it cannot make a good prediction using "j -da" curve. On the basis of fitting procedure and numerical simulation a correction of coefficients is introduced to improve the Rice-Tracey model. A methodology of identification of parameters is presented. Ductile crack growth, defined by the" j -da" curve, has been correctly simulated using the numerical calculations by adjusting the three parameters of " modified Rice-Tracey model in the calibration procedure. The proposed model is implemented into a finite element code. Close agreement between the computed results aj'ld experimentally measured values justifies the usefulness of the present modified model.
10

Étude des facteurs de variation des globulines sériques chez la vache laitière

Chorfi, Younès January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0355 seconds