• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 27
  • 2
  • 1
  • Tagged with
  • 97
  • 35
  • 33
  • 33
  • 25
  • 25
  • 22
  • 21
  • 20
  • 17
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Comparaison des estimations d'aléa sismique probabiliste avec les observations (accélérations et intensités) / Comparison of probabilistic seismic hazard estimations with observations (accelerations and intensities)

Oksuz, Hilal 23 June 2014 (has links)
L'estimation probabiliste de l'aléa sismique est basée sur plusieurs modèles et hypothèses à chaque étape, tels que la caractérisation des sources sismiques, les récurrences en magnitude, et le choix d'équations de prédiction du mouvement du sol. Le résultat final de ces études est la courbe d'aléa qui donne les taux annuels de dépassement pour différentes valeurs d'accélération. Chaque étape du calcul comporte des incertitudes. Comprendre l'impact de ces incertitudes sur le résultat final est délicat. Jusqu'à récemment, peu d'études se sont intéressées à tester le résultat final des calculs d'aléa sismique. Des données accélérométriques ou d'intensités macrosismiques, partiellement dépendantes des calculs d'aléa sismique, peuvent être utilisées, comme l'ont proposé quelques articles récents (Stirling & Gerstenberger 2006, Stirling & Gestenberger 2010, Albarello & D'Amico 2008). Cette étude vise à tester les estimations probabilistes de l'aléa sismique en France (MEDD2002, AFPS2006 et SIGMA2012) et aussi en Turquie (SHARE), en développant une méthode quantitative pour comparer les nombres prédits et observés de sites avec dépassement pendant la durée d'observation. La méthode développée s'appuie sur les travaux de Stirling & Gerstenberger (2010) et Albarello & D'Amico (2008). Les modèles sont évalués pour une large zone géographique en sélectionnant tous les sites et en sommant les durées d'observation à chaque site. L'objectif est de comprendre les possibilités et les limites de cette approche, car les durées d'observations sont courtes par rapport aux périodes de retour pertinentes en génie parasismique. Les résultats montrent que le modèle AFPS2006 est cohérent avec les observations du Réseau Accélérométrique Permanent (RAP) pour les accélérations entre 40 et 100 cm/s2 (temps de retour entre 50 et 200 ans). Le modèle MEDD2002 surestime l'aléa sismique pour un temps de retour de 100 ans. Ces résultats ne peuvent pas être extrapolés aux niveaux d'accélérations plus élevés. Pour des temps de retour plus longs (475 et 975 ans), il n'y a pas d'observation au dessus du seuil d'accélération. A l'heure actuelle en France, il n'est pas possible de tester les estimations probabilistes pour des niveaux d'accélérations utiles au génie parasismique. La méthode proposée a aussi été appliquée en Turquie. Les modèles d'aléa sismique peuvent être testés sur des durées d'observation plus longues et pour des niveaux d'accélération plus élevés qu'en France. Le modèle est testé pour différentes sélections de stations accélérométriques, différentes valeurs de la distance minimum entre stations, et différentes durées totales d'observations. Pour des accélérations entre 0.1 et 0.4 g, le modèle SHARE est cohérent avec les observations pour tous les tests. Pour des seuils plus bas, les résultats varient en fonction des décisions prises. Enfin, les modèles probabilistes d'aléa sismique en France ont été évalués à partir des intensités de la base de données SISFRANCE. Les périodes d'observations complètes sont estimées par une analyse statistique des données (I≥5, MSK). Nous avons sélectionné 25 sites avec des durées d'observations pour I≥5 variant entre 66 et 207 ans, localisés dans les zones les plus actives de France. Pour un temps de retour de 100 ans, le modèle MEDD2002 prédit un nombre de sites avec dépassement plus élevé que le nombre observé. Pour des temps de retour de 475 ans et plus longs, les modèles MEDD2002 et AFPS2006 ne peuvent pas être distingués car ils sont tous les deux compatibles avec les observations. Ces résultats basés sur les données d'intensité doivent être considérés de façon très prudente considérant les incertitudes sur la sélection des sites, sur la détermination des durées d'observations et la complétude, et sur l'équation utilisée pour convertir les intensités en accélérations. / PSHA calculations rely on several models and assumptions in its components, such as the characterization of seismic sources, the establishment of recurrence laws in magnitude, and the choice of ground-motion prediction equations. The final output of a PSHA study is the hazard curve that gives annual rates of exceedances of different acceleration levels. All steps of the PSHA calculation bear uncertainties. Understanding the impact of these uncertainties on the final output of the PSHA is not straightforward. Until recently, little attention has been paid to testing the final output of PSHA models against observations. Acceleration datasets and intensity databases, partially independent from the PSHA calculations, can be used, as proposed in a handful of recent papers (Stirling & Gerstenberger 2006, Stirling & Gestenberger 2010, Albarello & D'Amico 2008). This study is aimed at testing PSH models in France (MEDD2002, AFPS2006 and SIGMA2012) and also in Turkey (SHARE), developing a quantitative method for comparing predicted and observed number of sites with exceedance over the lifetime of the network. This method builds on the studies of Stirling & Gerstenberger (2010) and Albarello & D'Amico (2008). All sites are sampled, observation time windows are stacked, and the PSHA is evaluated over a large geographical area at once. The objective is to understand the possibilities and limits of this approach, as observation time windows are short with respect to the return periods of interest in earthquake engineering. Results show that the AFPS2006 PSH model is consistent with the observations of the RAP accelerometric network over the acceleration range 40-100 cm/s2 (or 50-200 years of return periods). The MEDD2002 PSH model over-predicts the observed hazard for the return period of 100 years. For longer return periods (475 and 975 years), the test is not conclusive due to the lack of observations for large accelerations. No conclusion can be drawn for acceleration levels of interest in earthquake engineering. The proposed method is applied to Turkey. The PSH model can be tested using longer observation periods and higher accelerations levels than in France. The PSH model is tested for different selections of accelerometric sites, minimum inter-site distance and total observation period. For accelerations between 0.1 and 0.4g, the model is consistent with the observations for all tests. At lower acceleration levels, the agreement between the model and the observations varies depending on the decisions taken. Finally, the PSHA models in France are evaluated using the macroseismic intensity database (SISFrance). Completeness time windows are estimated from statistics on the intensity data (I≥5, MSK). Twenty-five sites are selected, with completeness time periods for I≥5 extending between 66 and 207 years, located in the highest active zones in France. At 100 years return period, MEDD2002 models predicts more sites with exceedances than the observed number of sites. At return periods higher than or equal to 475 years, both models AFPS2006 cannot be discriminated as both are consistent with observations. Considering the uncertainties on the selection of sites, on the determination of completeness time periods, and on the equation selected for converting intensities into accelerations, the results based on macroseismic intensities should be considered very carefully.
62

Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l’apprentissage humain / Specification and design of usage analysis services for a tel system

Pham Thi Ngoc, Diem 25 November 2011 (has links)
Notre travail de recherche s’inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l’indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d’indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d’un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l’automatisation du calcul d’indicateurs. Pour cela, nous avons élaboré une nouvelle version d’UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l’enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d’indicateurs à partir des traces collectées par un EIAH, (2) d’intégrer des fonctions externes (qui proviennent d’autres outils d’analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d’indicateurs. Nous avons également développé un outil d’analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d’une analyse de l’état de l’art, mais aussi de travaux exploratoires sur la modélisation d’indicateurs et l’analyse de traces. L’approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants. / The research topic of this thesis is a part of the REDIM (model driven re-engineering) research project. It focuses specifically on the analysis of tracks collected during the learning session by a TEL (Technology Enhanced Learning) system in order to provide teachers indicators calculated. In our work environment, UTL (Usage Tracking Language) allows users to define the indicators in a form close to the design patterns. It was designed to response capitalization and reuse questions. However, UTL did not initially have any means to formally specify how to calculate indicators based on tracks collected. In general, design patterns are limited to the description, they cannot be automated. In addition, textual descriptions in UTL to produce indicators from tracks do not allow generating automatically an indicator’s values.Our main research objective was therefore to define models, methods and tools for formalizing and automating the calculation of indicators. We propose an extension for UTL named DCL4UTL (Data Combination Language for UTL) to model indicators in a capitalizable, automatable and reusable form to provide meaningful indicators to teachers/designers. With this new version, the indicators can be calculated in real-time or after a learning session in the context of tutoring actions or the reengineering of learning scenarios, respectively.The originality of our approach (DCL4UTL) lies in the fact that this version not only capitalize know-how on analysis techniques of the use an TEL system, but also (1) formally describe models and calculation methods of indicators from tracks collected by a TEL system, (2) integrate external functions (from other analysis tools), and (3) create parameterized intermediate data facilitating the modeling and reuse of indicators’ calculation method. We have also developed an analysis tool to calculate modeled indicators. Our approach and language have been validated by several experiments with several existent TEL systems.
63

Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées / Resolution of the p-median problem : application to restructuring semi-structured data

Gay, Jean-Christophe 19 October 2011 (has links)
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d’un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu’à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d’expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu’à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d’utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l’algorithme du Volume. L’instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l’implémentation séquentielle et en 10 minutes par l’implémentation parallèle de l’algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l’application d’une heuristique de construction gloutonne puis d’une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d’opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s’ils aident à réduire le coût global des affectations. / The problems we consider in this thesis are of combinatorial nature. Our main interest is the problem of approximating typing of a semistructured data. For example XML is a semistructured data. This problem may be reduced to an instance of the p-median problem. The main obstacle here is the size of the instances that may be very huge, about 10000 and 20000 nodes which imply several hundreds of million variables. For these instances, even solving the linear relaxation is a hard task. In some preliminary results we noticed that Cplex may solve instances of size 1000 in an acceptable time. But for some instances having 5000 nodes, it may needs 14 days for solving only the linear relaxation. Therefore, we cannot use methods that consider the linear relaxation as an elementary operation, as for example branch-and-cut methods. Instead of using Cplex we use the Volume algorithm in a parallel implementation (32 processors).For the instance where the Cplex needs 14 hours, the Volume algorithm in sequential implementation needs 24 minutes and in parallel implementation it needs 10 minutes. The solution of the linear relaxation is used to produce a feasible solution by first applying a greedy and then a local search heuristic. We notice that the results we obtain are relatively the same as those given by the best method known up today, which produces more effort and consumes more memory. Memory is important in our case since the data we consider are huge. We study the dominant of the polytope associated with the p-median problem. We discuss linear relaxation and a polyhedral characterization. Finally, we consider a more realistic version of the p-median problem when applied to the problem of approximating typing of a semistructured data. Roughly speaking, we add new nodes to the underlying graph if this help to reduce the overall cost.
64

Contrôle optimal de quelques phénomènes de diffusion en domaines pollués / Pointwise optimal control for some diffusion phenomena in polluted area

Mahoui, Sihem 01 July 2018 (has links)
Dans ce travail, on s'intéresse à l'analyse mathématique et au contrôle optimal pour des problèmes de diffusion relevant de certains domaines comme l'écologie ou l'environnement et comportant des termes de pollution inconnus en général. De plus, on souhaite agir sur le système en un seul point du domaine considéré pour des raisons de coût. La modélisation de ces problèmes se traduit généralement par un système de type parabolique avec donnée manquante (initiale ou aux limites) représentant la pollution, et où l'on introduit une fonction de contrôle de ce système. La méthode suivie pour résoudre ces problèmes est celle du contrôle à moindres regrets développée par J.-L. Lions et bien adaptée aux problèmes à données manquantes.Plus précisément, on est concerné par des problèmes de type parabolique qui décrivent la diffusion d'un fluide (eau) contaminé dans un domaine (une lagune ou un estuaire) par une pollution ayant son origine sur une partie du bord. De plus, on considère que la fonction source (le contrôle) est localisée en un point, c'est ce qu'on appelle le contrôle ponctuel. On cherche alors le (ou les) contrôle(s) qui peuvent améliorer la situation au lieu de la laisser à l'abandon (sans contrôle).Les solutions ne sont pas des fonctions régulières et ne peuvent être considérées qu'au sens faible. Deux méthodes sont utilisées: la première est la méthode de transposition de Lions-Magenes, détaillée au chapitre 3 de la thèse, et la deuxième méthode consiste à régulariser la masse de Dirac (le support du contrôle est un point) présentée au chapitre4. Pour les deux méthodes, on montre l'existence d'une solution faible et on établit un système d'optimalité singulier (SOS) du contrôle ponctuel à moindres regrets.Un dernier chapitre est consacré aux schémas numériques associés au problème de contrôle ponctuel à moindres regrets, où l'on obtient des estimations d'erreur par la méthode des éléments finis. / In this thesis, we are interested in mathematical analysis and optimal control of diffusion problems where there are pollution terms. In addition, we want to act on the system in a single point of the domain for cost reasons. The systems being studied are parabolic with missing (initial or boundary) data representing pollution, where we introduce a control function. The method of low-regret control of J.-L. Lions, used here for the first time to the pointwise control, seems to be well suited. We then look for the control which can improve the situation instead of doing nothing (no control).Solutions are not regular functions and can only be considered in the weak sense. Two methods are used here: the first one is the method of transposition of Lions-Magenes, detailed in Chapter 3 of the thesis, and the second method consists in regularizing the Dirac mass, presented in chapter 4. Each one of the two methods offers a new point of view. In particular, the functional spaces where the existence of a solution is obtained are different. For both methods, however, a singular optimality system is established for the low-regret pointwise control.A final chapter is devoted to the numerical schemes associated to the low-regret pointwise optimal control, where we obtain error estimates using finite elements method (FEM).
65

Analyse de vitesse par migration quantitative dans les domaines images et données pour l’imagerie sismique / Subsurface seismic imaging based on inversion velocity analysis in both image and data domains

Li, Yubing 16 January 2018 (has links)
Les expériences sismiques actives sont largement utilisées pour caractériser la structure de la subsurface. Les méthodes dites d’analyse de vitesse par migration ont pour but la détermination d’un macro-modèle de vitesse, lisse, et contrôlant la cinématique de propagation des ondes. Le modèle est estimé par des critères de cohérence d’image ou de focalisation d’image. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. Des résultats récents proposent de coupler l’inversion asymptotique, qui donne des images beaucoup plus propres en pratique, avec l’analyse de vitesse pour la version offset en profondeur. Cette approche cependant demande des capacités de calcul et de mémoire importantes et ne peut actuellement être étendue en 3D.Dans ce travail, je propose de développer le couplage entre l’analyse de vitesse et la migration plus conventionnelle par point de tir. La nouvelle approche permet de prendre en compte des modèles de vitesse complexes, comme par exemple en présence d’anomalies de vitesses plus lentes ou de réflectivités discontinues. C’est une alternative avantageuse en termes d’implémentation et de coût numérique par rapport à la version profondeur. Je propose aussi d’étendre l’analyse de vitesse par inversion au domaine des données pour les cas par point de tir. J’établis un lien entre les méthodes formulées dans les domaines données et images. Les méthodologies sont développées et analysées sur des données synthétiques 2D. / Active seismic experiments are widely used to characterize the structure of the subsurface. Migration Velocity Analysis techniques aim at recovering the background velocity model controlling the kinematics of wave propagation. The first step consists of obtaining the reflectivity images by migrating observed data in a given macro velocity model. The estimated model is then updated, assessing the quality of the background velocity model through the image coherency or focusing criteria. Classical migration techniques, however, do not provide a sufficiently accurate reflectivity image, leading to incorrect velocity updates. Recent investigations propose to couple the asymptotic inversion, which can remove migration artifacts in practice, to velocity analysis in the subsurface-offset domain for better robustness. This approach requires large memory and cannot be currently extended to 3D. In this thesis, I propose to transpose the strategy to the more conventional common-shot migration based velocity analysis. I analyze how the approach can deal with complex models, in particular with the presence of low velocity anomaly zones or discontinuous reflectivities. Additionally, it requires less memory than its counterpart in the subsurface-offset domain. I also propose to extend Inversion Velocity Analysis to the data-domain, leading to a more linearized inverse problem than classic waveform inversion. I establish formal links between data-fitting principle and image coherency criteria by comparing the new approach to other reflection-based waveform inversion techniques. The methodologies are developed and analyzed on 2D synthetic data sets.
66

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture

Paul, Alexandre 08 1900 (has links)
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées. / The study of the clustering of functional data has made a lot of progress in the last couple of years. Multiple methods have been proposed and the respective analysis has shown their eÿciency with some benchmark studies. The objective of this Master’s thesis is to compare those clustering algorithms with datasets from traÿc at an intersection of Montreal. The idea behind this is that the manual classification of these data sets is time-consuming. We show that it is possible to obtain adequate clustering and prediction results with several algorithms. One of the methods that we discussed is distclust : a distance-based algorithm that uses a K-means approach. We will also use a Gaussian mixture density clustering method known as mclust. Although those two techniques are quite e˙ective, they are multi-purpose clustering methods, therefore not tailored to the functional case. With that in mind, we apply four functional clustering methods : fitfclust, funmbclust, funclust, and funHDDC. Our results show that there is no loss in the quality of the clustering between the afore-mentioned functional methods and the multi-purpose ones. We prefer to use the functional ones because they provide a detailed estimation of the functional structure of the trajectory curves. One notable detail is the impact of a dimension reduction done with multivari-ate functional principal components analysis. Furthermore, we can use objective selection criteria such as the AIC and the BIC, and avoid using cluster quality indices that use a pre-existing classification of the data.
67

Volumes finis et solutions renormalisées, applications à des systèmes couplés. / Finite volumes and renormalized solutions : applications to coupled systems

Leclavier, Sarah 12 December 2017 (has links)
On s’intéresse dans cette thèse à montrer que la solution approchée, par la méthode des volumes finis, converge vers la solution renormalisée de problèmes elliptiques ou paraboliques à donnée L1. Dans la première partie nous étudions une équation de convection-diffusion ellliptique à donnée L1. En adaptant la stratégie développée pour les solutions renormaliséesà la méthode des volumes finis, nous montrons que la solution approchée converge vers l’unique solution renormalisée.Dans la deuxième partie nous nous intéressons à un problème parabolique nonlinéaire à donnée L1. En utilisant une version discrète de résultats de compacité classiques, nous montrons que les résultats obtenues dans le cas elliptique restentvrais dans le cas parabolique. Dans la troisième partie nous montrons des résultats similaires pour une équationparabolique doublement non-linéaire à donnée L1. Le caractère doublement nonlinéaire de l’équation crée des difficultés supplémentaires par rapport à la partie précédente, notamment car la règle de dérivation en chaîne ne s’applique pas dansle cas discret. Enfin, dans la quatrième partie, nous utilisons les résultats établis précédemment pour étudier un système de type thermoviscoélasticité. Nous montrons que la solution approchée, obtenue par un schéma éléments finis-volumes finis, converge vers une solution faible-renormalisée du système. / In this thesis we are interested in proving that the approximate solution, obtained by the finite volume method, converges to the unique renormalized solution of elliptic and parabolic equations with L1 data. In the first part we study an elliptic convection-diffusion equation with L1 data. Mixing the strategy developed for renormalized solution and the finite volume method,we prove that the approximate solution converges to the unique renormalized solution. In the second part we investigate a nonlinear parabolic equation with L1 data. Using a discrete version of classical compactness results, we show that the results obtaines previously in the elliptic case hold true in the parabolic case. In the third part we prove similar results for a doubly nonlinear parabolic equation with L1 data. The doubly nonlinear character of the equation makes new difficulties with respect to the previous part, especially since the chain rule formula does not apply in the discrete case. Finaly, in the fourth part we use the results established previously to investigate a system of thermoviscoelasticity kind. We show that the approximate solution,obtaines by finite element-finite volume scheme, converges to a weak-renormalized solution of the system.
68

Méthodes de régularisation évanescente pour la complétion de données / Fading regularization methods for data completion

Caille, Laetitia 25 October 2018 (has links)
Les problèmes de complétion de données interviennent dans divers domaines de la physique, tels que la mécanique, l'acoustique ou la thermique. La mesure directe des conditions aux limites se heurte souvent à l'impossibilité de placer l'instrumentation adéquate. La détermination de ces données n'est alors possible que grâce à des informations complémentaires. Des mesures surabondantes sur une partie accessible de la frontière mènent à la résolution d'un problème inverse de type Cauchy. Cependant, dans certains cas, des mesures directes sur la frontière sont irréalisables, des mesures de champs plus facilement accessibles permettent de pallier ce problème. Cette thèse présente des méthodes de régularisation évanescente qui permettent de trouver, parmi toutes les solutions de l'équation d'équilibre, la solution du problème de complétion de données qui s'approche au mieux des données de type Cauchy ou de champs partiels. Ces processus itératifs ne dépendent pas d'un coefficient de régularisation et sont robustes vis à vis du bruit sur les données, qui sont recalculées et de ce fait débruitées. Nous nous intéressons, dans un premier temps, à la résolution de problèmes de Cauchy associés à l'équation d'Helmholtz. Une étude numérique complète est menée, en utilisant la méthode des solutions fondamentales en tant que méthode numérique pour discrétiser l'espace des solutions de l'équation d'Helmholtz. Des reconstructions précises attestent de l'efficacité et de la robustesse de la méthode. Nous présentons, dans un second temps, la généralisation de la méthode de régularisation évanescente aux problèmes de complétion de données à partir de mesures de champs partielles. Des simulations numériques, pour l'opérateur de Lamé, dans le cadre des éléments finis et des solutions fondamentales, montrent la capacité de la méthode à compléter et débruiter des données partielles de champs de déplacements et à identifier les conditions aux limites en tout point de la frontière. Nous retrouvons des reconstructions précises et un débruitage efficace des données lorsque l'algorithme est appliqué à des mesures réelles issues de corrélation d'images numériques. Un éventuel changement de comportement du matériau est détecté grâce à l'analyse des résidus de déplacements. / Data completion problems occur in many engineering fields, such as mechanical, acoustical and thermal sciences. Direct measurement of boundary conditions is often confronting with the impossibility of placing the appropriate instrumentation. The determination of these data is then possible only through additional informations. Overprescribed measurements on an accessible part of the boundary lead to the resolution of an inverse Cauchy problem. However, in some cases, direct measurements on the boundary are inaccessible, to overcome this problem field measurements are more easily accessible. This thesis presents fading regularization methods that allow to find, among all the solutions of the equilibrium equation, the solution of the data completion problem which fits at best Cauchy or partial fields data. These iterative processesdo not depend on a regularization coefficient and are robust with respect to the noise on the data, which are recomputed and therefore denoised. We are interested initially in solving Cauchy problems associated with the Helmholtz equation. A complete numerical study is made, usingthe method of fundamental solutions as a numerical method for discretizing the space of the Helmholtz equation solutions. Accurate reconstructions attest to the efficiency and the robustness of the method. We present, in a second time, the generalization of the fading regularization method to the data completion problems from partial full-field measurements. Numerical simulations, for the Lamé operator, using the finite element method or the method of fundamental solutions, show the ability of the iterative process to complete and denoise partial displacements fields data and to identify the boundary conditions at any point. We find precise reconstructions and efficient denoising of the data when the algorithm is applied to real measurements from digital image correlation. A possible change in the material behavior is detected thanks to the analysis of the displacements residuals.
69

Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision / Interoperability of distributed systems producing semantic data stream for decision-making

Belghaouti, Fethi 26 January 2017 (has links)
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes / Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
70

Genetic-epidemiologic analysis of X-inactivation skewing in human females : suggestive evidence for two distinct traits

Mio, Robert January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0551 seconds