Spelling suggestions: "subject:"corrélation."" "subject:"corrélations.""
191 |
Dialogue essais - simulation et identification de lois de comportement d'alliage à mémoire de forme en chargement multiaxialEchchorfi, Rachid 06 September 2013 (has links) (PDF)
Les travaux présentés ont consisté à développer des stratégies d'identification performantes des paramètres des lois de comportement superélastique des Alliages à Mémoire de Forme (AMF). L'objectif est de disposer d'une solution complète de caractérisation, d'identification, et de simulation de structures en AMF soumises à des sollicitations complexes. Une base de données expérimentale unifiée pour un alliage de NiTi superélastique a été établie pour une multitude de trajets de déformation multiaxiaux et à différentes températures : en traction homogène, en compression, en traction-compression et en traction-traction. Une caractérisation expérimentale a été développée sur une plate-forme multiaxiale assemblée au laboratoire durant ce travail. L'emploi de la corrélation d'images a permis d'enrichir la base de données expérimentale en déterminant pour chaque essai les champs cinématiques. Cette collection d'essais a permis de montrer l'importante différence de comportement observée entre les directions de laminage et transverse, bien que le matériau soit faiblement texturé. Des procédures d'identification du comportement thermomécanique des AMF ont été mises en place, basées sur la construction et minimisation d'une fonction objectif régularisée. La première est basée sur l'exploitation des courbes contrainte-déformation moyennes sous chargement homogène et unixial. La seconde exploite la richesse des champs de déformations mesurés en essai hétérogène. Les deux stratégies ont permis d'identifier les huit paramètres gouvernant le comportement superélastique du modèle de Chemisky et al. (Chemisky et al. 2011). Des différences entre les jeux de paramètres identifiés sont caractéristiques des effets d'anisotropie observés. Le succès de cette stratégie démontre sa pertinence et est encourageant pour l'identification de paramètres de lois de comportement anisotropes.
|
192 |
"Comment vivre ?" : la contribution de Gérard Siegwalt à l'anthropologie théologique contemporaineHutchen, Matthias 23 March 2012 (has links) (PDF)
Le champ disciplinaire qui occupe cette recherche est l'anthropologie théologique dans l'œuvre de Gérard Siegwalt et la question de l'identité humaine, plus particulièrement ses moyens de vie, moyens au sens moral et existentiel. Cette question repose sur la problématique suivante : a priori, on ne naît pas humain, on le devient. L'identité humaine ne se découvre qu'après un cheminement intellectuel, spirituel, parfois douloureux, résumé dans l'œuvre de Gérard Siegwalt par la notion de " mourir pour devenir ". Dans cette thèse, nous essayons d'analyser l'angle sous lequel Siegwalt développe son anthropologie. Nous voulons voir en particulier dans quelle mesure il reprend le schéma développé par Luther : " simul peccator, simul justus, semper penitens ". Une fois ce schéma mis en évidence dans l'anthropologie siegwaltienne, nous essayons de voir comment il l'applique ou l'actualise. Cette actualisation implique l'utilisation de la méthode de corrélation, méthode reprise au théologien Paul Tillich. Siegwalt estime que la théologie doit travailler en dialogue avec les autres disciplines et il essaye d'établir un système qui est à la fois compte rendu de la foi chrétienne et analyse du vécu humain.L'anthropologie de Siegwalt se veut à la fois sapientiale (dans la mesure où elle se concentre sur la réalité de la vie humaine en invoquant le large éventail que constituent les sciences humaines ainsi que les sciences dures) et prophétique (dans la mesure où Siegwalt part de la révélation biblique pour répondre aux grandes questions existentielles de l'être humain).En partant de là, nous pouvons dégager un plan en trois parties : un premier chapitre sur la question de la réalité de la vie humaine (à savoir la vie humaine dans le monde et devant le monde) qui se traduit en termes d'aporie, d'ouverture et de devenir, un second chapitre sur la question de la vérité de la vie humaine (à savoir la vie humaine devant Dieu) qui se traduit en terme de péché, de rédemption et de " pénitence " et enfin une troisième partie où nous tenterons de voir où se situe la méthode de Gérard Siegwalt par rapport à la question de la nature et de la grâce.
|
193 |
Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchellesCaniou, Yann 29 November 2012 (has links) (PDF)
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D'abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d'analyse de sensibilité adaptées aux modèles à paramètres d'entrée corrélés sont présentées : l'une est basée sur l'analyse de la distribution de la réponse du modèle, l'autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l'imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d'envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d'homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d'un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d'une structure.
|
194 |
Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmablesOuerhani, Yousri 16 November 2012 (has links) (PDF)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
|
195 |
Etude des propriétés élastiques de la croûte : analyse numérique et applications au bruit de fond sismiqueObermann, Anne Christine 04 November 2013 (has links) (PDF)
Durant mes trois années de thèse, j'ai été amenée à travailler sur différents aspects de la surveillance des propriétés élastiques de la croûte, à la fois par analyses numériques, mais aussi par des applications d'utilisation du bruit ambiant. Ma thèse s'articule autour de deux parties principales: Les propriétés des ondes de la coda Le libre parcours moyen est un paramètre crucial rencontré continuellement dans les différentes parties de mon travail. Dans cette partie, je présente une nouvelle façon de déterminer ce libre parcours moyen à partir des statistiques de phase. Cette méthode a été testée avec succès dans l'étude d'un volcan situé en Auvergne (France). Je présente ensuite une analyse numérique de la sensibilité que les ondes de la coda manifestent en fonction de la profondeur. Ce travail nous a permis de relier cette sensibilité à la profondeur observée dans les ondes de la coda, à une combinaison de la sensibilité des ondes de volume et de celle des ondes de surface. En effet, cette sensibilité des ondes de volume et de surface dépend directement du temps considéré dans la coda et du libre parcours moyen du milieu étudié. Nous avons été capable de montrer que le changement de vitesse relatif dans la coda était lié à une dépendance en temps. Cette importante observation nous permet de pouvoir établir une distinction entre un changement qui se produit en surface et un changement ayant lieu en profondeur. Localisation des changements dans un milieu diffusif Nous avons développé une méthode d'inversion basée sur des approches probabilistes de la propagation des ondes, afin de pouvoir localiser les changements dans le milieu. Nous avons également étudié la décohérence de la forme d'onde, ce qui constitue un aspect additionnel des techniques de surveillance du bruit sismique, qui traditionnellement sont basés sur l'évaluation du temps de retard dans la coda. Au cours de cette thèse, nous avons affiné notre méthode d'inversion en l'appliquant à trois cas d'études. Dans un premier cas, nous avons étudié les changements ayant eu lieu avant et pendant l'éruption du volcan du Piton de la Fournaise situé sur l'Ile de la Réunion. Le challenge ici est de parvenir à localiser correctement la prochaine éruption. La seconde application a concerné le séisme de Mw7,9 de Wenchuan (Chine), sur lequel nous avons obtenu de nombreuses données. Dans ce cas, nous avons pris en compte l'évolution de la coda au cours du temps et nous avons conjointement inversé les données à différents temps dans la coda pour étudier les changements induits dans la croûte, avant et pendant le séisme. A partir de ces résultats, nous avons pu clairement voir que la décohérence de la forme d'onde et les variations de vitesse n'étaient pas sensibles aux mêmes propriétés physiques. Dans le troisième cas d'étude, nous avons testé la procédure d'inversion avec un noyau 3D pour étudier la fracturation dans un bloc de béton soumis à une contrainte croissante.
|
196 |
Méthodes d'amélioration pour le diagnostic de câble par réflectométrieEl Sahmarany, Lola 17 December 2013 (has links) (PDF)
L'utilisation de câbles électriques et leurs longueurs dans certains systèmes électriques ont fortement augmenté au cours des dernières années. Or, la fiabilité de ces systèmes repose en partie sur la fiabilité des réseaux électriques. On constate en pratique qu'une part non négligeable des pannes et des dysfonctionnements de ces systèmes proviennent des défauts dans les liaisons filaires et non des équipements électriques. La connaissance de ces réseaux filaires et en particulier la détection de leurs défauts est donc importante. De nombreuses méthodes ont été développées pour tester l'état des câbles. Parmi ces méthodes on peut distinguer les méthodes de réflectométrie largement utilisées et facilement embarquables. Généralement ces méthodes sont très bien adaptées pour détecter et localiser les défauts francs mais les défauts non francs sont pratiquement transparents à ces méthodes car ils ont des conséquences électriques très faibles. Pour s'affranchir de ces limitations des améliorations en termes de mesure et traitement sont nécessaires. Dans cette thèse, trois nouvelles méthodes de diagnostic filaire ont été développées pour améliorer et faciliter la détection et la localisation de tous types de défauts filaires. Chacune des ces méthodes répond à un obstacle que nous avons rencontré pendant les trois années de recherche. Un premier obstacle concerne le phénomène de dispersion du signal dans les câbles qui rend la détection des défauts et du vieillissement des câbles très difficile. Un autre obstacle lié à la détection des défauts non-francs présente un enjeu actuel majeur du diagnostic filaire car leurs signatures sont très faibles et parfois noyées dans le bruit ou masquées par la proximité d'une autre impulsion d'amplitude plus importante. Les trois méthodes sont les suivantes : - La première méthode proposée, baptisée " corrélation adaptative " fournit un nouvel algorithme pour compenser la dispersion du signal. Elle permet de mieux localiser et mieux détecter les singularités sur des câbles de n'importe quelle longueur. - La deuxième méthode proposée, baptisée TRR (en anglais Time reversal Reflectometry) est basée sur le principe de la réflectométrie et du retournement temporel. Elle permet de caractériser le vieillissement des câbles électriques. - La troisième méthode proposée, baptisée RART (Réflectométrie associée à un processus de retournement temporel) est basée sur les principes de la réflectométrie et du retournement temporel et permet d'améliorer la détection des défauts électriques liés à une dégradation de l'isolant. Ces travaux de thèse ont montré les performances et la facilité de ces méthodes visant à assurer la sureté de fonctionnement des systèmes électriques que ce soit dans des moyens de transport, un bâtiment ou même des réseaux de communication.
|
197 |
Sondes actives pour l'optique en champ proche à base de nanoparticules isolantes ou de nanodiamants fluorescentsCuche, Aurélien 14 December 2009 (has links) (PDF)
Dans la configuration dite " NSOM à ouverture ", la résolution optique est dans le meilleur des cas comprise entre 50 et 100 nm. Afin de sonder les propriétés optiques de nanosystèmes, aux dimensions toujours plus petites, une résolution optique plus fine est souhaitable. Pour remplir cet objectif, la solution que nous proposons est l'utilisation d'une sonde active. Une telle sonde repose sur le greffage d'un nano-objet fluorescent à l'apex d'une pointe optique classique. En théorie, la résolution latérale en champ proche devrait être dictée par la taille de ce nano-émetteur (<< 50 nm). Sur la base des travaux réalisés précédemment dans le laboratoire, nous présentons ici deux nouvelles méthodes pour réaliser une telle sonde. Celles-ci impliquent deux types de nanoparticules complémentaires à la taille et aux propriétés optiques attrayantes (forte émission dans le visible, photostabilité). Une première approche a été développée à partir d'un ensemble de nanoparticules de YAG, dopées par des ions cérium, produites et déposées en bout de pointe par LECBD (Low Energy Cluster Beam Deposition). La seconde approche consiste à sélectionner et à fixer en bout de pointe de manière contrôlée (grâce à un polymère) un nanodiamant, contenant des centres colorés (NV), déposé sur une lame de microscopie. L'avancement des travaux est présenté pour les deux types de nano-objets. La mise au point et l'utilisation pour l'imagerie NSOM d'une sonde active à photons uniques, basée sur nanodiamant de 20 nm contenant un seul centre NV et fonctionnant à température ambiante, sont aussi discutées. Au-delà du gain en résolution que peut apporter une telle sonde, ce nouveau type de pointe à photons uniques ouvre de nouvelles perspectives aussi bien en optique et plasmonique quantiques qu'en magnétométrie à haute résolution et haute sensibilité.
|
198 |
Surveillance logicielle à base d'une communauté d'agents mobilesBernichi, Mâamoun 30 November 2009 (has links) (PDF)
Les agents mobiles peuvent physiquement migrer à travers un réseau informatique dans le but d'effectuer des tâches sur des machines, ayant la capacité de leur fournir un support d'exécution. Ces agents sont considérés comme composants autonomes, une propriété qui leur permet de s'adapter à des environnements dynamiques à l'échelle d'un réseau large. Ils peuvent également échanger des informations entre eux afin de collaborer au sein de leur groupe, nous parlerons ainsi d'une communauté d'agents mobiles. Nous avons développé ce concept de communauté, en se référant aux recherches et aux études précédentes pour définir un nouveau modèle comportemental d'agent mobile. Ce modèle est utilisé pour répondre aux besoins de la surveillance logicielle. Celle ci consiste à collecter des événements à partir de plusieurs sources de données (Log, événements système...) en vue de leur analyse pour pouvoir détecter des événements anormaux. Cette démarche de surveillance s'appuie sur plusieurs types d'agents mobiles issus du même modèle. Chaque type d'agent gère un domaine fonctionnel précis. L'ensemble des ces agents constitue une communauté pouvant collaborer avec différentes autres communautés lorsqu'il existe plusieurs sites à surveiller. Les résultats de cette approche nous ont permis d'évoquer les limites liées à la taille des données collectées, ce qui nous amène à de nouvelles perspectives de recherche et à penser un agent mobile "idéal". Enfin, nous nous intéressons également à l'application de la communauté d'agent mobile pour les systèmes de détection d'intrusion et la remontée d'anomalie
|
199 |
Processus matriciels : simulation et modélisation de la dépendance en financeAhdida, Abdelkoddousse, Ahdida, Abdelkoddousse 01 December 2011 (has links) (PDF)
La première partie de cette thèse est consacrée à la simulation des équations différentielles stochastiques définies sur le cône des matrices symétriques positives. Nous présentons de nouveaux schémas de discrétisation d'ordre élevé pour ce type d'équations différentielles stochastiques, et étudions leur convergence faible. Nous nous intéressons tout particulièrement au processus de Wishart, souvent utilisé en modélisation financière. Pour ce processus nous proposons à la fois un schéma exact en loi et des discrétisations d'ordre élevé. A ce jour, cette méthode est la seule qui soit utilisable quels que soient les paramètres intervenant dans la définition de ces modèles. Nous montrons, par ailleurs, comment on peut réduire la complexité algorithmique de ces méthodes et nous vérifions les résultats théoriques sur des implémentations numériques. Dans la deuxième partie, nous nous intéressons à des processus à valeurs dans l'espace des matrices de corrélation. Nous proposons une nouvelle classe d'équations différentielles stochastiques définies dans cet espace. Ce modèle peut être considéré comme une extension du modèle Wright-Fisher (ou processus Jacobi) àl'espace des matrice de corrélation. Nous étudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-allèles. Nous démontrons le caractère ergodique du modèle et donnons des représentations de Girsanov susceptibles d'être employées en finance. En vue d'une utilisation pratique, nous explicitons deux schémas de discrétisation d'ordre élevé. Cette partie se conclut par des résultats numériques illustrant le comportement de la convergence de ces schémas. La dernière partie de cette thèse est consacrée à l'utilisation des ces processus pour des questions de modélisation multi-dimensionnelle en finance. Une question importante de modélisation, aujourd'hui encore difficile à traiter, est l'identification d'un type de modèle permettant de calibrer à la fois le marché des options sur un indice et sur ses composants. Nous proposons, ici, deux types de modèles : l'un à corrélation locale et l'autre à corrélation stochastique. Dans ces deux cas, nous expliquons quelle procédure on doit adopter pour obtenir une bonne calibration des données de marché
|
200 |
Analyse et modélisation de l'hydrodynamique locale dans les colonnes à bulles / Analysis and modelization of local hydrodynamics in bubble columnsRaimundo, Pedro Maximiano 14 October 2015 (has links)
Les colonnes à bulles sont largement utilisées dans les domaines du génie chimique et biologique, grâce à leur configuration simple, exempte de toute partie mobile. Néanmoins, leur extrapolation aux échelles industrielles engendre des modifications de l’hydrodynamique globale (vitesse du liquide, taille des bulles) qui sont encore difficile à prédire avec les outils numériques disponibles.La thèse a pour objectif d’établir une base de données sur l’évolution radiale et axiale de l’hydrodynamique locale (taux de vide, taille de bulles, vitesse liquide), dans différentes tailles de colonnes allant de 0.15 à 3 m de diamètre, pour des vitesses superficielles gaz comprises entre 3 et 35 cm/s, générant des taux de vide atteignant les 35%. Les mesures de taux de vide local, de vitesse de bulles et de la taille verticale des bulles sont réalisées à l’aide d’une sonde optique 1C. De plus, une nouvelle méthode pour mesurer la taille horizontale des bulles à fort taux de vide et en écoulement fortement multidirectionnel est proposée dans cette thèse. Cette méthode est basée sur la corrélation croisée spatiale de signaux provenant de deux sondes optiques placées parallèlement à la même élévation, et à une distance l’une de l’autre devant nécessairement être plus faibles que les bulles les plus petites présentes dans l’écoulement. Les mesures de taille de bulles sont validées en les comparant à un traitement d’images par endoscopie. Pour des vitesses superficielles de gaz supérieures à 9 cm/s, un bon accord est trouvé entre les trois méthodes (sonde optique 1C, corrélation croisée et endoscopie). La taille des bulles augmente légèrement lorsque la vitesse superficielle gaz augmente, par contre elle n’est pas impactée de manière significative par le diamètre des colonnes. Une plus grande ségrégation radiale est tout de même visible dans les plus grandes colonnes testées.Un modèle 1D radial développé pour un écoulement invariant le long de l’axe de la colonne est utilisé pour tester différents formalismes de forces de trainée, utilisant les données expérimentales de taille moyenne de bulles. Les simulations montrent que pour prédire correctement le flux gazeux expérimental, il est nécessaire d’introduire un « swarm factor » (Simonnet et al, 2008) diminuant le coefficient de trainée à fort taux de vide. De plus, des simulations 3D URANS avec Fluent® sont réalisées avec la loi de trainée validée par le modèle 1D précédemment cité. Un bon accord est observé entre les valeurs expérimentales et simulées des profils radiaux de taux de vide et de vitesse liquide, pour des diamètres de colonne allant de 0.4 m à 3 m, et pour des vitesses superficielle gaz de 3 à 35 cm/s. / Bubble columns reactors are widely used in chemical and biological engineering due to its simple configuration without mobile parts. However, the scale-up prediction of a bubble columns reactors is still a challenging process, due to the lack reliable experimental data and models.The present work aims to construct detailed database of the radial and axial evolution of local hydrodynamics properties (gas hold-up, bubble size and velocity, liquid velocity) acquired in several bubble columns in a scale factor of 20 (from 0.15 to 3 m in diameter), for a superficial gas velocity from 3 to 35 cm/s, yielding gas hold-ups up to 35 %. Measurements of local gas hold-up, bubble velocity and bubble vertical size are performed by a 1C mono-fiber optical probe. Moreover, a novel method to measure mean horizontal diameter of bubbles at high void fraction and in a multi-directional flow is proposed. This method is based in the spatial-cross correlation of signal of two optical probes placed parallel side by side, at a given distance from each other, at the same elevation in the column. The validation of the bubble size measurements are performed through a comparison of the results with an endoscopic imaging method. For superficial gas velocities higher than 9 cm/s, a good agreement is found between the three methods (1C mono-fiber optical probe, cross-correlation and endoscopic imaging). A slight increase is registered with the increase of the superficial gas velocity, however there is no significant variation with the column diameter.A 1-D radial model of a bubbly flow (Ueyama and Miyauchi, 1979) developed for a invariant flow along the column axis, is used to benchmark several classic formalisms of the drag force, using experimental average bubble size. Results show that to correctly predict the experimental gas flowrate, it is necessary to use a Swarm factor (Simonnet et al, 2008) that reduces the drag coefficient for high gas hold-up values. Moreover, Fluent® 3D URANS simulations are performed using the previously validated drag force formalism. A good agreement is found between experimental and simulated radial profiles of gas holdup and liquid velocity for column diameters ranging from 0.4 m up to 3 m in diameter in a range of superficial gas velocities from 3 cm/s to 35 cm/s.
|
Page generated in 0.0912 seconds