• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 37
  • 9
  • 1
  • 1
  • Tagged with
  • 119
  • 119
  • 51
  • 47
  • 42
  • 16
  • 13
  • 13
  • 13
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modèles statistiques non linéaires pour l'analyse de formes : application à l'imagerie cérébrale

Sfikas, Giorgos 07 September 2012 (has links) (PDF)
Cette thèse a pour objet l'analyse statistique de formes, dans le contexte de l'imagerie médicale.Dans le champ de l'imagerie médicale, l'analyse de formes est utilisée pour décrire la variabilité morphologique de divers organes et tissus. Nous nous focalisons dans cette thèse sur la construction d'un modèle génératif et discriminatif, compact et non-linéaire, adapté à la représentation de formes.Ce modèle est évalué dans le contexte de l'étude d'une population de patients atteints de la maladie d'Alzheimer et d'une population de sujets contrôles sains. Notre intérêt principal ici est l'utilisationdu modèle discriminatif pour découvrir les différences morphologiques les plus discriminatives entre une classe de formes donnée et des formes n'appartenant pas à cette classe. L'innovation théorique apportée par notre modèle réside en deux points principaux : premièrement, nous proposons un outil pour extraire la différence discriminative dans le cadre Support Vector Data Description (SVDD) ; deuxièmement, toutes les reconstructions générées sont anatomiquementcorrectes. Ce dernier point est dû au caractère non-linéaire et compact du modèle, lié à l'hypothèse que les données (les formes) se trouvent sur une variété non-linéaire de dimension faible. Une application de notre modèle à des données médicales réelles montre des résultats cohérents avec les connaissances médicales.
92

Modélisation et caractérisation mécanique d'un composite bio-sourcé par mesures de champs cinématiques sans contact

Sun, Shengnan 14 April 2014 (has links) (PDF)
Ce travail de thèse a été réalisé dans le cadre du projet de l'ANR DEMETHER lancé en 2011. L'objectif du projet était d'élaborer un matériau composite d'origine bio-sourcée pour l'isolation thermique des bâtiments existants. Ces biocomposites sont constitués de broyats de tiges de tournesol liés par une biomatrice à base de chitosane. Mon travail s'est concentré essentiellement sur la caractérisation et la modélisation des propriétés mécaniques des broyats et du biocomposite. La première phase du travail a permis de mettre en évidence l'influence de la zone de prélèvement des échantillons dans la tige ainsi que celle de l'humidité relative sur le module d'Young. Une approche statistique a également permis de prendre en considération le caractère diffus des tiges sur leurs propriétés mécaniques. Par la suite, un travail d'homogénéisation basé sur la morphologie et les caractéristiques des constituants de l'écorce a conduit à une estimation des propriétés élastiques globales de celle-ci. La deuxième phase du travail a permis de caractériser mécaniquement le biocomposite en compression par une méthode de mesures de champs sans contact développée au laboratoire. Le caractère hétérogène des champs de déformation a ainsi été directement relié aux constituants et au taux de chitosane.
93

Reconstruction du spectre UV solaire en vue de la caractérisation des environnements planétaires

Cessateur, Gaël 17 October 2011 (has links) (PDF)
La connaissance du flux UltraViolet (UV) solaire et de sa variabilité dans le temps est un problème clé aussi bien dans le domaine de l'aéronomie qu'en physique solaire. Alors que l'extrême UV, entre 10 et 121 nm, est important pour la caractérisation de l'ionosphère, l'UV entre 121 et 300 nm l'est tout autant pour les modélisations climatiques. La mesure continue de l'irradiance dans l'UV est cependant une tâche ardue. En effet, les instruments spatiaux étant dans un environnement hostile se dégradent rapidement. De nombreux modèles basés sur des indices solaires sont alors utilisées lorsque peu de données sont disponibles. Pourtant, l'utilisation de ces indices ne permet pas d'atteindre aujourd'hui une précision suffisante pour les différentes applications en météorologie de l'espace. Comme alternative, ce travail de thèse met en avant l'utilisation de bandes passantes pour reconstruire l'irradiance solaire dans l'UV. En utilisant des méthodes d'analyse statistique multivariée, ce travail met tout d'abord en évidence la forte cohérence de la variabilité spectrale de l'irradiance dans l'UV, ainsi que ses principales caractéristiques. Une première étape consiste à utiliser des bandes passantes existantes afin de tester la faisabilité de notre approche: le flux UV peut ainsi être reconstruit avec une erreur relative d'environ 20%, une bien meilleure performance qu'avec l'utilisation d'indices solaires. Ce travail propose ensuite plusieurs choix pour définir un futur instrument d'un genre nouveau. Afin de limiter les problèmes de dégradation liés à l'utilisation de filtres, les nouveaux détecteurs à matériaux à large bande interdite permettent de sélectionner la bande spectrale, notamment pour l'UV à partir de 120 nm. Enfin, une modélisation de l'impact du flux UV solaire sur l'atmosphère de Ganymède est exposée. Les émissions atmosphériques pour quelques espèces sont alors calculées, afin de proposer quelques recommandations pour les futures missions pour Jupiter.
94

Mechanism and Prediction of Post-Operative Atrial Fibrillation Based on Atrial Electrograms

Xiong, Feng 03 1900 (has links)
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles. / Atrial fibrillation (AF) is an abnormal heart rhythm (cardiac arrhythmia). In AF, the atrial contraction is rapid and irregular, and the filling of the ventricles becomes incomplete, leading to reduce cardiac output. Atrial fibrillation may result in symptoms of palpitations, fainting, chest pain, or even heart failure. AF is an also an important risk factor for stroke. Coronary artery bypass graft surgery (CABG) is a surgical procedure to restore the perfusion of the cardiac tissue in case of severe coronary heart disease. 10% to 65% of patients who never had a history of AF develop AF on the second or third post CABG surgery day. The occurrence of postoperative AF is associated with worse morbidity and longer and more expensive intensive-care hospitalization. The fundamental mechanism responsible of AF, especially for post-surgery patients, is not well understood. Identification of patients at high risk of AF after CABG would be helpful in prevention of postoperative AF. The present project is based on the analysis of cardiac electrograms recorded in patients after CABG surgery. The first aim of the research is to investigate whether the recordings display typical changes prior to the onset of AF. A second aim is to identify predictors that can discriminate the patients that will develop AF. Recordings were made by the team of Dr. Pierre Pagé on 137 patients treated with CABG surgery. Three unipolar electrodes were sutured on the epicardium of the atria to record continuously during the first 4 post-surgery days. As a first stage of the research, an automatic and unsupervised algorithm was developed to detect and distinguish atrial and ventricular activations on each channel, and join together the activation of the different channels belonging to the same cardiac event. The algorithm was developed and optimized on a training set, and its performance assessed on a test set. Validation software was developed to prepare these two sets and to correct the detections over all recordings that were later used in the analyses. It was complemented with tools to detect, label and validate normal sinus beats, atrial and ventricular premature activations (PAA, PVC) as well as episodes of arrhythmia. Pre-CABG clinical data were then analyzed to establish the preoperative risk of AF. Age, serum creatinine and prior myocardial infarct were found to be the most important predictors. While the preoperative risk score could to a certain extent predict who will develop AF, it was not correlated with the post-operative time of AF onset. Then the set of AF patients was analyzed, considering the last two hours before the onset of the first AF lasting for more than 10 minutes. This prolonged AF was found to be usually triggered by a premature atrial PAA most often originating from the left atrium. However, along the two pre-AF hours, the distribution of PAA and of the fraction of these coming from the left atrium was wide and inhomogeneous among the patients. PAA rate, duration of transient atrial arrhythmia, sinus heart rate, and low frequency portion of heart rate variability (LF portion) showed significant changes in last hour before the onset of AF. Comparing all other PAA, the triggering PAA were characterized by their prematurity, the small value of the maximum derivative of the electrogram nearest to the site of origin, as well as the presence of transient arrhythmia and increase LF portion of the sinus heart rate variation prior to the onset of the arrhythmia. The final step was to compare AF and Non-AF patients to find predictors to discriminate the two groups. Five types of logistic regression models were compared, achieving similar sensitivity, specificity, and ROC curve area, but very low prediction accuracy for Non-AF patients. A weighted moving average method was proposed to design to improve the accuracy for Non-AF patient. Two models were favoured, selected on the criteria of robustness, accuracy, and practicability. Around 70% Non-AF patients were correctly classified, and around 75% of AF patients in the last hour before AF. The PAA rate, the fraction of PAA initiated in the left atrium, pNN50, the atrio-ventricular conduction time, and the correlation between the latter and the heart rhythm were common predictors of these two models.
95

Modèles statistiques non linéaires pour l'analyse de formes : application à l'imagerie cérébrale / Non-linear statistical models for shape analysis : application to brain imaging

Sfikas, Giorgos 07 September 2012 (has links)
Cette thèse a pour objet l'analyse statistique de formes, dans le contexte de l'imagerie médicale.Dans le champ de l'imagerie médicale, l'analyse de formes est utilisée pour décrire la variabilité morphologique de divers organes et tissus. Nous nous focalisons dans cette thèse sur la construction d'un modèle génératif et discriminatif, compact et non-linéaire, adapté à la représentation de formes.Ce modèle est évalué dans le contexte de l'étude d'une population de patients atteints de la maladie d'Alzheimer et d'une population de sujets contrôles sains. Notre intérêt principal ici est l'utilisationdu modèle discriminatif pour découvrir les différences morphologiques les plus discriminatives entre une classe de formes donnée et des formes n'appartenant pas à cette classe. L'innovation théorique apportée par notre modèle réside en deux points principaux : premièrement, nous proposons un outil pour extraire la différence discriminative dans le cadre Support Vector Data Description (SVDD) ; deuxièmement, toutes les reconstructions générées sont anatomiquementcorrectes. Ce dernier point est dû au caractère non-linéaire et compact du modèle, lié à l'hypothèse que les données (les formes) se trouvent sur une variété non-linéaire de dimension faible. Une application de notre modèle à des données médicales réelles montre des résultats cohérents avec les connaissances médicales. / This thesis addresses statistical shape analysis, in the context of medical imaging. In the field of medical imaging, shape analysis is used to describe the morphological variability of various organs and tissues. Our focus in this thesis is on the construction of a generative and discriminative, compact and non-linear model, suitable to the representation of shapes. This model is evaluated in the context of the study of a population of Alzheimer's disease patients and a population of healthy controls. Our principal interest here is using the discriminative model to discover morphological differences that are the most characteristic and discriminate best between a given shape class and forms not belonging in that class. The theoretical innovation of our work lies in two principal points first, we propose a tool to extract discriminative difference in the context of the Support Vector Data description (SVDD) framework ; second, all generated reconstructions are anatomicallycorrect. This latter point is due to the non-linear and compact character of the model, related to the hypothesis that the data (the shapes) lie on a low-dimensional, non-linear manifold. The application of our model on real medical data shows results coherent with well-known findings in related research.
96

L’effet du journalisme constructif sur l’engagement du lectorat d’un site Web d’information

Kozminski Martin, Alexandre 01 1900 (has links)
No description available.
97

Caractérisation de l’environnement karstique de la grotte de Lascaux par couplage de méthodes géophysique, statistique et géostatistique / The karstic environment of the Lascaux cave : characterization by integrating geophysical, statistical and geostatistical methods

Xu, Shan 24 November 2015 (has links)
La grotte de Lascaux (inscrite au patrimoine mondial de l’UNESCO et l’une des plus connues au monde) nécessite, dans le cadre de sa conservation et suite aux aléas subis depuis sa découverte, une attention particulière tant pour elle-même que pour son environnement. L’utilisation d’une méthode géophysique, la Tomographie de Résistivité électrique (TRE) qui est une méthode non intrusive par excellence, est donc proposée pour la reconnaissance du milieu karstique l’environnant.Un suivi temporel par TRE a été mise en oeuvre pour caractériser l’amont hydraulique de la grotte et surveiller la variation temporelle de la résistivité des terrains. A l’aide d’analyses statistiques, et en couplant les données microclimatiques aux résultats d’un suivi temporel de vingt-deux mois, nous avons montré la capacité de ce type de mesures à caractériser l’environnement épikarstique de la grotte, particulièrement les zones d’alimentation et celles permettant l’infiltration des eaux pluviales. Une modélisation du débit d’un écoulement situé à l’entrée de la grotte est proposée à partir des données de résistivité dans la zone d’alimentation identifiée au cours du suivi. Ce modèle a la capacité de prédire les arrêts et les reprises des écoulements dans la grotte, éventuellement des évènements journaliers.A partir des données de résistivité issues d’une prospection 3D du site, des modélisations géostatistiques par krigeage ordinaire et par indicatrice ont été effectuées permettant des représentations spatiales en fonction de la résistivité des terrains. Ces modèles se sont révélés extrêmement instructifs par l’imagerie de l’environnement karstique de la grotte de Lascauxqui en a résulté. Les limites des formations détritiques et des calcaires sont identifiées à l’est et l’ouest du site. A l’intérieur des calcaires, on retrouve, bien sûr, les anomalies conductrices déjà identifiées au cours du suivi temporel mais aussi leur extension spatiale. Ainsi, on a pu mettre en évidence la continuité spatiale de certaines anomalies.Le suivi temporel par TRE a permis la compréhension de la structure et du fonctionnement de l’alimentation de l’épikarst. Les modèles géostatistiques 3D ont montré leur efficacité pour la caractérisation de l’environnement de la grotte. Les résultats aideraient à proposer des conseils pour la protection du milieu environnant la grotte et ainsi pour la préservation de cette dernière. / The Lascaux cave, one of the most important prehistoric caves in the world, located in Dordogne (24, France) needs particular attention both for itself and for the environment interms of conservation and vulnerability since its discovery. Geophysical methods in particular Electrical Resistivity Tomography (ERT) enable us, in a non-invasive way, to monitor the karsticenvironment.A Time-Lapse monitoring by ERT was carried out next to the cave. Together with analysis of the local effective rainfall (ground water recharge) and the flow in the cave, the monitoringhelped us to identify an area where upstream underground water is probably stored e.g. arecharge zone. There is a large electrical contrast between the surrounding limestone and theprobable recharge zone. Then, a multivariate analysis through the resistivity values allowed usto characterize the model blocks, showing a specific behavior over time, especially the blockswith the lowest electrical resistivity. A prediction model of the flow in relation with the recharge zone succeeded to predict the beginning and the end of flow, even the daily event withextremely high value of flow.In order to visualize the environment in 3D condition, a geostatistical modelling was then applied to the resistivity values. The geostatistical models can emphasize the limit betweenthe limestone promontory and the clayey/sandy formations to the east/west part of the site. In the limestone promontory, the models also showed the possible connection between theanomalous conductive areas that may have a special consequence in this karstic environment.The Time-Lapse monitoring by ERT allows us to understand the karstic structures andrecharge phenomena. The 3D geostatistical modeling showed efficiency for the characterization of the cave environment. Those results can help to provide advices for the cave preservation.
98

Prediction of the vibroacoustic response of aerospace composite structures in a broadband frequency range

Chronopoulos, Dimitrios 29 November 2012 (has links)
Pendant sa mission, un lanceur est soumis à des excitations large bande, sévères, aérodynamiques, de provenances diverses, qui peuvent mettre en danger la survivabilité de la charge utile et de l’équipement électronique du véhicule, et par conséquent le succès de la mission. Les structures aérospatiales sont généralement caractérisées par l’utilisation de matériaux composites exotiques des configurations et des épaisseurs variantes, ainsi que par leurs géométries largement complexes. Il est donc d’une importance cruciale pour l’industrie aérospatiale moderne, le développement d’outils analytiques et numériques qui peuvent prédire avec précision la réponse vibroacoustique des structures larges, composites de différentes géométries et soumis à une combinaison des excitations aéroacoustiques. Récemment, un grand nombre de recherches ont été menées sur la modélisation des caractéristiques de propagation des ondes au sein des structures composites. Dans cette étude, la méthode des éléments finis ondulatoires (WFEM) est utilisée afin de prédire les caractéristiques de dispersion des ondes dans des structures composites orthotropes de géométries variables, nommément des plaques plates, des panneaux simplement courbés, des panneaux doublement courbés et des coques cylindriques. Ces caractéristiques sont initialement utilisées pour prédire la densité modale et le facteur de perte par couplage des structures connectées au milieu acoustique. Par la suite, la perte de transmission (TL) à large bande des structures modélisées dans le cadre d’une analyse statistique énergétique (SEA) dans un contexte ondulatoire est calculée. Principalement en raison de la complexité géométrique importante de structures, l’utilisation des éléments finis (FE) au sein de l’industrie aérospatiale est souvent inévitable. L’utilisation de ces modèles est limitée principalement à cause du temps de calcul exigé, même pour les calculs dans la bande basses fréquences. Au cours des dernières années, beaucoup de chercheurs travaillent sur la réduction de modèles FE, afin de rendre leur application possible pour des systèmes larges. Dans cette étude, l’approche de SOAR est adoptée, afin de minimiser le temps de calcul pour un système couplé de type structurel-acoustique, tout en conservant une précision satisfaisante de la prédiction dans un sens large bande. Le système est modélisé sous diverses excitations aéroacoustiques, nommément un champ acoustique diffus et une couche limite turbulente (TBL).La validation expérimentale des outils développés est réalisée sur un ensemble de structures sandwich composites orthotropes. Ces derniers sont utilisés afin de formuler une approche couche équivalente unique (ESL) pour la modélisation de la réponse spatiale du panneau dans le contexte d’une approche de matrice de raideur dynamique. L’effet de la température de la structure ainsi que du milieu acoustique sur la réponse du système vibroacoustique est examiné et analysé. Par la suite, un modèle de la structure SYLDA, également fait d’un matériau sandwich orthotrope, est testé principalement dans le but d’enquêter sur la nature de couplage entre ses divers sous-systèmes. La modélisation ESL précédemment développée est utilisé pour un calcul efficace de la réponse de la structure dans la gamme des basses et moyennes fréquences, tandis que pour des fréquences plus élevées, une hybridisation WFEM / FEM pour la modélisation des structures discontinues est utilisé. / During its mission, a launch vehicle is subject to broadband, severe, aeroacoustic and structure-borne excitations of various provenances, which can endanger the survivability of the payload and the vehicles electronic equipment, and consequently the success of the mission. Aerospace structures are generally characterized by the use of exotic composite materials of various configurations and thicknesses, as well as by their extensively complex geometries and connections between different subsystems. It is therefore of crucial importance for the modern aerospace industry, the development of analytical and numerical tools that can accurately predict the vibroacoustic response of large, composite structures of various geometries and subject to a combination of aeroacoustic excitations. Recently, a lot of research has been conducted on the modelling of wave propagation characteristics within composite structures. In this study, the Wave Finite Element Method (WFEM) is used in order to predict the wave dispersion characteristics within orthotropic composite structures of various geometries, namely flat panels, singly curved panels, doubly curved panels and cylindrical shells. These characteristics are initially used for predicting the modal density and the coupling loss factor of the structures connected to the acoustic medium. Subsequently the broad-band Transmission Loss (TL) of the modelled structures within a Statistical Energy Analysis (SEA) wave-context approach is calculated. Mainly due to the extensive geometric complexity of structures, the use of Finite Element(FE) modelling within the aerospace industry is frequently inevitable. The use of such models is limited mainly because of the large computation time demanded even for calculations in the low frequency range. During the last years, a lot of researchers focus on the model reduction of large FE models, in order to make their application feasible. In this study, the Second Order ARnoldi (SOAR) reduction approach is adopted, in order to minimize the computation time for a fully coupled composite structural-acoustic system, while at the same time retaining a satisfactory accuracy of the prediction in a broadband sense. The system is modelled under various aeroacoustic excitations, namely a diffused acoustic field and a Turbulent Boundary Layer (TBL) excitation. Experimental validation of the developed tools is conducted on a set of orthotropic sandwich composite structures. Initially, the wave propagation characteristics of a flat panel are measured and the experimental results are compared to the WFEM predictions. The later are used in order to formulate an Equivalent Single Layer (ESL) approach for the modelling of the spatial response of the panel within a dynamic stiffness matrix approach. The effect of the temperature of the structure as well as of the acoustic medium on the vibroacoustic response of the system is examined and analyzed. Subsequently, a model of the SYLDA structure, also made of an orthotropic sandwich material, is tested mainly in order to investigate the coupling nature between its various subsystems. The developed ESL modelling is used for an efficient calculation of the response of the structure in the lower frequency range, while for higher frequencies a hybrid WFEM/FEM formulation for modelling discontinuous structures is used.
99

Contribution à la modélisation mathématique pour la simulation et l'observation d'états des bioprocédés

Bogaerts, Philippe 21 April 1999 (has links)
Les bioprocédés ont connu un essor considérable au cours de ces dernières années et sont promis à un bel avenir. Qu'il s'agisse de la production de vaccins, de la fermentation de levures pour l'industrie alimentaire ou encore de l'épuration biologique des eaux usées, les applications sont nombreuses et les produits sont d'un intérêt capital pour l'être humain. Étant donnés le coût et le temps de mise en oeuvre de ces procédés, il est particulièrement utile de construire des simulateurs permettant de reproduire le comportement macroscopique des cultures cellulaires utilisées. Ces simulateurs peuvent servir à déterminer des conditions optimales de fonctionnement (en fonction des critères de l'utilisateur) et à tester certains outils (régulateurs, capteurs logiciels, etc.). Par ailleurs, il est nécessaire, pour le suivi et la régulation de ces procédés, de disposer de grandeurs mesurées (concentrations cellulaires, en substrats, en le produit d'intérêt, etc.). Les problèmes liés à la mesure matérielle de ces grandeurs sont nombreux: coût des capteurs, destruction des échantillons, longues périodes d'échantillonnage, temps d'analyse élevés, etc. Il est dès lors utile de construire des observateurs d'états (ou capteurs logiciels) fournissant une estimation en temps continu de grandeurs non mesurées sur la base d'un modèle mathématique et de certaines mesures matérielles.<p><p>Les modèles mathématiques sont nécessaires pour la synthèse des deux types d'outils envisagés dans ce travail (simulateurs et capteurs logiciels). Les modèles utilisés consistent en les bilans massiques des constituants apparaissant dans le schéma réactionnel, ce dernier contenant les réactions essentielles pour la description des phénomènes à l'échelle macroscopique. Au sein de ces bilans massiques, une nouvelle structure générale de modèle cinétique est proposée, possédant un certain nombre de propriétés intéressantes, telles l'interprétation physique des paramètres cinétiques, les concentrations définies positives sous certaines conditions, la garantie de stabilité entrées bornées - états bornés, ou encore la possibilité de linéarisation en les paramètres à estimer.<p><p>Une méthodologie générale d'estimation paramétrique est proposée, afin d'identifier les coefficients pseudo-stoechiométriques, les coefficients cinétiques et certains paramètres expérimentaux (concentrations initiales des cultures). Cette méthodologie possède un caractère systématique, prend en compte les erreurs de mesure sur l'ensemble des signaux (y compris à l'instant initial), fournit à l'utilisateur la covariance des erreurs d'estimation paramétrique, prend en compte intrinsèquement les contraintes de signe sur les paramètres, fournit une estimation des erreurs de simulation, permet de réduire le nombre d'équations différentielles au sein du modèle, etc. La mise en oeuvre et l'intérêt de ces outils sont illustrés en simulation (cultures bactériennes) et dans le cas d'une application réelle (cultures de cellules animales CHO).<p><p>La première catégorie d'observateurs d'états étudiée dans ce travail est celle des observateurs utilisant pleinement le modèle cinétique. L'observation d'états basée sur l'identification des conditions initiales les plus vraisemblables est plus particulièrement analysée. Elle consiste à estimer en temps continu l'entièreté de l'état par intégration d'un modèle de simulation au départ des conditions initiales les plus vraisemblables. Ces dernières sont identifiées à chaque nouvel instant de mesure sur la base de toute l'information disponible jusqu'à cet instant. Certaines propriétés mathématiques sont étudiées (dont une comparaison avec le filtre de Kalman) et un certain nombre d'extensions de la méthode sont proposées (dont une version récurrente qui ne nécessite plus de résoudre un problème d'optimisation non linéaire à chaque nouvel instant de mesure). Ces outils sont à nouveau illustrés dans le cadre des cultures de cellules animales CHO, et se basent sur les modèles de simulation développés dans la première partie du travail.<p><p>Étant donné les risques de divergence des observateurs de cette première catégorie lorsque la qualité du modèle cinétique n'est pas suffisante, une seconde catégorie est envisagée, constituée des observateurs utilisant partiellement le modèle cinétique. Dans ce contexte, un nouvelle technique est proposée consistant en un observateur hybride entre le filtre de Kalman étendu (utilisant pleinement le modèle cinétique) et l'observateur asymptotique de Bastin et Dochain (n'utilisant pas du tout le modèle cinétique). Cette structure estime (conjointement avec l'état du système) un degré de confiance en le modèle cinétique. Elle est capable d'évoluer de façon progressive, en fonction de ce degré de confiance, entre les deux solutions extrêmes (filtre de Kalman et observateur asymptotique), tirant ainsi parti des avantages respectifs de ces deux méthodes selon les conditions opératoires et la qualité du modèle cinétique. Ces outils sont validés sur des cultures bactériennes simulées.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
100

Automatic non-functional testing and tuning of configurable generators / Une approche pour le test non-fonctionnel et la configuration automatique des générateurs

Boussaa, Mohamed 06 September 2017 (has links)
Les techniques émergentes de l’ingénierie dirigée par les modèles et de la programmation générative ont permis la création de plusieurs générateurs (générateurs de code et compilateurs). Ceux-ci sont souvent utilisés afin de faciliter le développement logiciel et automatiser le processus de génération de code à partir des spécifications abstraites. De plus, les générateurs modernes comme les compilateurs C, sont devenus hautement configurables, offrant de nombreuses options de configuration à l'utilisateur de manière à personnaliser facilement le code généré pour la plateforme matérielle cible. Par conséquent, la qualité logicielle est devenue fortement corrélée aux paramètres de configuration ainsi qu'au générateur lui-même. Dans ce contexte, il est devenu indispensable de vérifier le bon comportement des générateurs. Cette thèse établit trois contributions principales : Contribution I: détection automatique des inconsistances dans les familles de générateurs de code : Dans cette contribution, nous abordons le problème de l'oracle dans le domaine du test non-fonctionnel des générateurs de code. La disponibilité de multiples générateurs de code avec des fonctionnalités comparables (c.-à-d. familles de générateurs de code) nous permet d'appliquer l'idée du test métamorphique en définissant des oracles de test de haut-niveau (c.-à-d. relation métamorphique) pour détecter des inconsistances. Une inconsistance est détectée lorsque le code généré présente un comportement inattendu par rapport à toutes les implémentations équivalentes de la même famille. Nous évaluons notre approche en analysant la performance de Haxe, un langage de programmation de haut niveau impliquant un ensemble de générateurs de code multi-plateformes. Les résultats expérimentaux montrent que notre approche est capable de détecter plusieurs inconsistances qui révèlent des problèmes réels dans cette famille de générateurs de code. Contribution II: une approche pour l'auto-configuration des compilateurs. Le grand nombre d'options de compilation des compilateurs nécessite une méthode efficace pour explorer l'espace d’optimisation. Ainsi, nous appliquons, dans cette contribution, une méta-heuristique appelée Novelty Search pour l'exploration de cet espace de recherche. Cette approche aide les utilisateurs à paramétrer automatiquement les compilateurs pour une architecture matérielle cible et pour une métrique non-fonctionnelle spécifique tel que la performance et l'utilisation des ressources. Nous évaluons l'efficacité de notre approche en vérifiant les optimisations fournies par le compilateur GCC. Nos résultats expérimentaux montrent que notre approche permet d'auto-configurer les compilateurs en fonction des besoins de l'utilisateur et de construire des optimisations qui surpassent les niveaux d'optimisation standard. Nous démontrons également que notre approche peut être utilisée pour construire automatiquement des niveaux d'optimisation qui représentent des compromis optimaux entre plusieurs propriétés non-fonctionnelles telles que le temps d'exécution et la consommation des ressources. Contribution III: Un environnement d'exécution léger pour le test et la surveillance de la consommation des ressources des logiciels. Enfin, nous proposons une infrastructure basée sur les micro-services pour assurer le déploiement et la surveillance de la consommation des ressources des différentes variantes du code généré. Cette contribution traite le problème de l'hétérogénéité des plateformes logicielles et matérielles. Nous décrivons une approche qui automatise le processus de génération, compilation, et exécution du code dans le but de faciliter le test et l'auto-configuration des générateurs. Cet environnement isolé repose sur des conteneurs système, comme plateformes d'exécution, pour une surveillance et analyse fine des propriétés liées à l'utilisation des ressources (CPU et mémoire). / Generative software development has paved the way for the creation of multiple generators (code generators and compilers) that serve as a basis for automatically producing code to a broad range of software and hardware platforms. With full automatic code generation, users are able to rapidly synthesize software artifacts for various software platforms. In addition, they can easily customize the generated code for the target hardware platform since modern generators (i.e., C compilers) become highly configurable, offering numerous configuration options that the user can apply. Consequently, the quality of generated software becomes highly correlated to the configuration settings as well as to the generator itself. In this context, it is crucial to verify the correct behavior of generators. Numerous approaches have been proposed to verify the functional outcome of generated code but few of them evaluate the non-functional properties of automatically generated code, namely the performance and resource usage properties. This thesis addresses three problems : (1) Non-functional testing of generators: We benefit from the existence of multiple code generators with comparable functionality (i.e., code generator families) to automatically test the generated code. We leverage the metamorphic testing approach to detect non-functional inconsistencies in code generator families by defining metamorphic relations as test oracles. We define the metamorphic relation as a comparison between the variations of performance and resource usage of code, generated from the same code generator family. We evaluate our approach by analyzing the performance of HAXE, a popular code generator family. Experimental results show that our approach is able to automatically detect several inconsistencies that reveal real issues in this family of code generators. (2) Generators auto-tuning: We exploit the recent advances in search-based software engineering in order to provide an effective approach to tune generators (i.e., through optimizations) according to user's non-functional requirements (i.e., performance and resource usage). We also demonstrate that our approach can be used to automatically construct optimization levels that represent optimal trade-offs between multiple non-functional properties such as execution time and resource usage requirements. We evaluate our approach by verifying the optimizations performed by the GCC compiler. Our experimental results show that our approach is able to auto-tune compilers and construct optimizations that yield to better performance results than standard optimization levels. (3) Handling the diversity of software and hardware platforms in software testing: Running tests and evaluating the resource usage in heterogeneous environments is tedious. To handle this problem, we benefit from the recent advances in lightweight system virtualization, in particular container-based virtualization, in order to offer effective support for automatically deploying, executing, and monitoring code in heterogeneous environment, and collect non-functional metrics (e.g., memory and CPU consumptions). This testing infrastructure serves as a basis for evaluating the experiments conducted in the two first contributions.

Page generated in 0.1603 seconds