• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 47
  • 13
  • Tagged with
  • 154
  • 57
  • 30
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 18
  • 17
  • 17
  • 15
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Apprentissage d'appariements pour la discrimination de séries temporelles

Frambourg, Cédric 13 March 2013 (has links) (PDF)
Il n'est pas rare dans les applications que les profils globaux des séries temporelles soient dissimilaires au sein d'une même classe ou, inversement, exhibent des dynamiques similaires pour des classes différentes. L'objectif de ce travail consiste à discriminer de telles structures de séries temporelles complexes. Nous proposons une nouvelle approche d'apprentissage d'appariements discriminants visant à connecter les séries temporelles selon les caractéristiques partagées dans les classes et différentielles entre les classes. Cette approche est fondée sur un critère de variance/covariance pour la pénalisation des liens entre les observations en fonction de la variabilité intra et inter classes induite. Pour ce faire, l'expression de la variance/covariance classique est étendue à un ensemble de séries temporelles, puis à des classes de séries. Nous montrons ensuite comment les appariements appris peuvent être utilisés pour la définition d'une métrique locale, pondérée, restreignant la comparaison de séries à leurs attributs discriminants. Les expérimentations menées soulignent la capacité des appariements appris à révéler des signatures fines discriminantes et montrent l'efficacité de la métrique apprise pour la classification de séries temporelles complexes.
32

Métriques naturelles associées aux familles de variétés Kahlériennes compactes

Magnusson, Gunnar thor 28 November 2012 (has links) (PDF)
Dans cette thèse nous considérons des familles $pi : cc X to S$ de variétés compactes k"ahlerinnes au-dessus d'une base lisse $S$. Nous construisons un cône de K"ahler relatif $p : cc K to S$ au-dessus de la base de déformations. Ensuite nous démontrons l'existence des métriques hermitiennes naturelles sur les espaces totals $cc K$ et $cc X times_S cc K$ qui généralisent la métrique de Weil--Petersson classiuque associée aux familles polarisées de telles variétés. Nous obtenons aussi une métrique riemannienne sur le cône de K"ahler d'une variété compacte k"ahlerienne quelconque. Nous exprimons son tenseur de courbure à l'aide d'un plongement du cône de K"ahler dans l'espace de toutes métriques hermitiennes sur la variété. Nous démontrons aussi que si les variétés en question sont de fibré canonique trivial, alors notre métrique est la forme de courbure d'un fibré en droites holomorphe. Nous donnons ensuite quelques exemples et applications.
33

Résilience des systèmes informatiques adaptatifs : modélisation, analyse et quantification

Excoffon, William 08 June 2018 (has links) (PDF)
On appelle résilient un système capable de conserver ses propriétés de sûreté de fonctionnement en dépit des changements (nouvelles menaces, mise-à-jour,…). Les évolutions rapides des systèmes, y compris des systèmes embarqués, implique des modifications des applications et des configurations des systèmes, en particulier au niveau logiciel. De tels changements peuvent avoir un impact sur la sûreté de fonctionnement et plus précisément sur les hypothèses des mécanismes de tolérance aux fautes. Un système est donc résilient si de pareils changements n’invalident pas les mécanismes de sûreté de fonctionnement, c’est-à-dire, si les mécanismes déjà en place restent cohérents malgré les changements ou dont les incohérences peuvent être rapidement résolues. Nous proposons tout d’abord dans cette thèse un modèle pour les systèmes résilients. Grâce à ce modèle nous pourrons évaluer les capacités d’un ensemble de mécanismes de tolérance aux fautes à assurer les propriétés de sûreté issues des spécifications non fonctionnelles. Cette modélisation nous permettra également de définir un ensemble de mesures afin de quantifier la résilience d’un système. Enfin nous discuterons dans le dernier chapitre de la possibilité d’inclure la résilience comme un des objectifs du processus de développement
34

Métriques naturelles associées aux familles de variétés Kahlériennes compactes / Natural metrics associated to families of compact Kähler manifolds.

Magnusson, Gunnar Thor 28 November 2012 (has links)
Dans cette thèse nous considérons des familles $pi : cc X to S$ de variétés compactes k"ahlerinnes au-dessus d'une base lisse $S$. Nous construisons un cône de K"ahler relatif $p : cc K to S$ au-dessus de la base de déformations. Ensuite nous démontrons l'existence des métriques hermitiennes naturelles sur les espaces totals $cc K$ et $cc X times_S cc K$ qui généralisent la métrique de Weil--Petersson classiuque associée aux familles polarisées de telles variétés. Nous obtenons aussi une métrique riemannienne sur le cône de K"ahler d'une variété compacte k"ahlerienne quelconque. Nous exprimons son tenseur de courbure à l'aide d'un plongement du cône de K"ahler dans l'espace de toutes métriques hermitiennes sur la variété. Nous démontrons aussi que si les variétés en question sont de fibré canonique trivial, alors notre métrique est la forme de courbure d'un fibré en droites holomorphe. Nous donnons ensuite quelques exemples et applications. / In this thesis we consider families $pi : cc X to S$ of compact K"ahler manifolds with zero first Chern class over a smooth base $S$. We construct a relative complexified K"ahler cone $p : cc K to S$ over the base of deformations. Then we prove the existence of natural hermitian metrics on the total spaces $cc K$ and $cc X times_S cc K$ that generalize the classical Weil--Petersson metrics associated to polarized families of such manifolds. As a byproduct we obtain a Riemannian metric on the K"ahler cone of any compact K"ahler manifold. We obtain an expression of its curvature tensor via an embedding of the K"ahler cone into the space of hermitian metrics on the manifold. We also prove that if the manifolds in our family have trivial canonical bundle, then our generalized Weil--Petersson metric is the curvature form of a positive holomorphic line bundle. We then give some examples and applications.
35

Apprentissage d'appariements pour la discrimination de séries temporelles / Learning discriminative matching for complex time series discrimination.

Frambourg, Cédric 13 March 2013 (has links)
Il n'est pas rare dans les applications que les profils globaux des séries temporelles soient dissimilaires au sein d'une même classe ou, inversement, exhibent des dynamiques similaires pour des classes différentes. L'objectif de ce travail consiste à discriminer de telles structures de séries temporelles complexes. Nous proposons une nouvelle approche d'apprentissage d'appariements discriminants visant à connecter les séries temporelles selon les caractéristiques partagées dans les classes et différentielles entre les classes. Cette approche est fondée sur un critère de variance/covariance pour la pénalisation des liens entre les observations en fonction de la variabilité intra et inter classes induite. Pour ce faire, l'expression de la variance/covariance classique est étendue à un ensemble de séries temporelles, puis à des classes de séries. Nous montrons ensuite comment les appariements appris peuvent être utilisés pour la définition d'une métrique locale, pondérée, restreignant la comparaison de séries à leurs attributs discriminants. Les expérimentations menées soulignent la capacité des appariements appris à révéler des signatures fines discriminantes et montrent l'efficacité de la métrique apprise pour la classification de séries temporelles complexes. / It is not rare in applications for global profiles of time series to be different within a class, or, on the contrary, to show similar profiles for different classes. The aim of this work is to discriminate such complex structures of time series. We propose a new approach to learn discriminative matchings, in order to connect a set of time series, according to the common features within the classes as well as the differenciating features between the classes. Our approach is based on variance-covariance criteria, for the penalisation of links between observations, due to the variability induced within and between classes . For this, the classical expression for the variance/covariance is extended to a set of time series, then to a partition of those series. We show then how the learned matchings can be used to define a weighted local metric, restricting the comparison of the series to their discriminative features. Experiments have been conducted that underline the ability of the learned matchings to reveal accurate discriminative signatures and show the effectiveness of the learned metric to classify complex time series.
36

An approach to measuring software systems using new combined metrics of complex test / Une approche pour mesurer les systèmes logiciels utilisant de nouvelles métriques de test complexe combinées

Dahab, Sarah 13 September 2019 (has links)
La plupart des métriques de qualité logicielle mesurables sont actuellement basées sur des mesures bas niveau, telles que la complexité cyclomatique, le nombre de lignes de commentaires ou le nombre de blocs dupliqués. De même, la qualité de l'ingénierie logicielle est davantage liée à des facteurs techniques ou de gestion, et devrait fournir des indicateurs utiles pour les exigences de qualité. Actuellement, l'évaluation de ces exigences de qualité n'est pas automatisée, elle n'est pas validée empiriquement dans des contextes réels et l'évaluation est définie sans tenir compte des principes de la théorie de la mesure. Par conséquent, il est difficile de comprendre où et comment améliorer le logiciel suivant le résultat obtenu. Dans ce domaine, les principaux défis consistent à définir des métriques adéquates et utiles pour les exigences de qualité, les documents de conception de logiciels et autres artefacts logiciels, y compris les activités de test.Les principales problématiques scientifiques abordées dans cette thèse sont les suivantes: définir des mesures et des outils de support pour mesurer les activités d'ingénierie logicielle modernes en termes d'efficacité et de qualité. La seconde consiste à analyser les résultats de mesure pour identifier quoi et comment s'améliorer automatiquement. Le dernier consiste en l'automatisation du processus de mesure afin de réduire le temps de développement. Une telle solution hautement automatisée et facile à déployer constituera une solution révolutionnaire, car les outils actuels ne le prennent pas en charge, sauf pour une portée très limitée. / Most of the measurable software quality metrics are currently based on low level metrics, such as cyclomatic complexity, number of comment lines or number of duplicated blocks. Likewise, quality of software engineering is more related to technical or management factoid, and should provide useful metrics for quality requirements. Currently the assessment of these quality requirements is not automated, not empirically validated in real contexts, and the assessment is defined without considering principles of measurement theory. Therefore it is difficult to understand where and how to improve the software following the obtained result. In this domain, the main challenges are to define adequate and useful metrics for quality requirements, software design documents and other software artifacts, including testing activities.The main scientific problematic that are tackled in this proposed thesis are the following : defining metrics and its supporting tools for measuring modern software engineering activities with respect to efficiency and quality. The second consists in analyzing measurement results for identifying what and how to improve automatically. The last one consists in the measurement process automation in order to reduce the development time. Such highly automated and easy to deploy solution will be a breakthrough solution, as current tools do not support it except for very limited scope.
37

Analyse structurelle de l'hydrogène neutre dans la voie lactée

Khalil, André January 2004 (has links)
Les étoiles vivent et meurent en rejetant de la matière dans le milieu interstellaire (MIS) et elles naissent à l’intérieur de celui-ci. Nous avons analysé la composante d’hydrogène neutre du MIS. Nos données proviennent de la partie canadienne de l’International Galactic Plane Survey qui vise l’imagerie spectroscopique de l’hydrogène neutre du plan de notre galaxie. Nous avons utilisé deux outils mathématiques d’analyse d’images: la technique d’Espaces Métriques (TEM) et la méthode des Maxima du Module de la Transformée en Ondelettes (MMTO). La TEM est un formalisme mathématique d’analyse d’images qui permet de comparer quantitativement la complexité des objets étudiés. Nous avons amélioreré l’outil aux niveaux mathématique et technique avant de l’utiliser pour caractériser la complexité de 28 régions d’hydrogéne neutre. Aprés avoir classé les 28 objets, nous avons trouvé des corrélations entre ce classement et les propriétés physiques des objets sous-jacents, dont: (1) Plus le flux des photons UV est élevé, plus la région de H i photodissociée est complexe; et (2) la complexité des régions H i augmente avec l’ˆage des restes de supernovae auxquels elles sont associées. La méthode MMTO est un formalisme multifractal basé sur la transformée en ondelettes. Nos résultats obtenus à partir de cette méthode concernent les propriétés multifractales et anisotropes de l’hydrogène neutre dans notre galaxie. Les nuages terrestres exhibent des propriétés multifractales. Nous avons démontré que l’hydrogène neutre du disque de notre galaxie est monofractal. En analysant séparément les bras spiraux et les milieux inter-bras, nous avons découvert une signature anisotrope et que les structures horizontales sont plus complexes que les structures verticales. Cette anisotropie est indépendante de l’échelle pour les inter-bras tandis qu’elle est dépendante de l’échelle pour les bras spiraux. Les hypothèses investiguées pour obtenir une explication physique sont: le gradient de distribution en z (“scale-height gradient”), l’onde de densité, l’activité de formation d’étoiles, la photo-lévitation de nuages poussiéreux, les mouvements aléatoires de nuages H i, la corrugation et la turbulence. / Stars live and die by rejecting matter in the interstellar medium (ISM), where they were born. We have analyzed the neutral hydrogen component of the ISM. The data come from the Canadian portion of the International Galactic Plane Survey which aims the spectroscopic imaging of the neutral hydrogen from our Galaxy. We have used two mathematical image analysis tools: Metric Space Technique (MST) and the Wavelet Transform Modulus Maxima (WTMM) method. The MST is an image analysis mathematical formalism that allows one to quantitatively compare the complexity of the studied objects. We have improved the tool mathematically and technically before using it to characterize the complexity of 28 neutral hydrogen regions. After classifying the 28 objects, we have found some correlations between this ranking and the physical properties of the underlying objects, for example: (1) The complexity of the photodissociated neutral hydrogen regions increases with the flux of UV photons; and (2) the complexity of neutral hydrogen regions increases with the age of the supernovae remnants to which they are associated. The WTMM method is a multifractal formalism based on the wavelet transform. The results we obtain from this method concern the multifractal and anisotropic properties of neutral hydrogen in our Galaxy. Earth clouds exhibit multifractal properties. We have shown that the neutral hydrogen from our galactic disk is monofractal. By analyzing separately spiral arms and the inter-arm regions, we have discovered an anisotropic signature and that the horizontal structures and more complex than the vertical structures. This anisotropy is independent of scale for the inter-arms while it is depedent of scale for the spiral arms. The investigated hypotheses to obtain some physical explanations are: the scale-height gradient, the density wave, star formation activity, photo-levitation of dusty clouds, random motions of neutral hydrogen clouds, corrugation and turbulence.
38

Data quality for the decision of the ambient systems / Qualité des données pour la décision des systèmes ambiants

Kara, Madjid 14 March 2018 (has links)
La qualité des données est une condition commune à tous les projets de technologie de l'information, elle est devenue un domaine de recherche complexe avec la multiplicité et l’expansion des différentes sources de données. Des chercheurs se sont penchés sur l’axe de la modélisation et l’évaluation des données, plusieurs approches ont été proposées mais elles étaient limitées à un domaine d’utilisation bien précis et n’offraient pas un profil de qualité nous permettant d’évaluer un modèle de qualité de données global. L’évaluation basée sur les modèles de qualité ISO a fait son apparition, néanmoins ces modèles ne nous guident pas pour leurs utilisation, le fait de devoir les adapter à chaque cas de figure sans avoir de méthodes précises. Notre travail se focalise sur les problèmes de la qualité des données d'un système ambiant où les contraintes de temps pour la prise de décision sont plus importantes par rapport aux applications traditionnelles. L'objectif principal est de fournir au système décisionnel une vision très spécifique de la qualité des données issues des capteurs. Nous identifions les aspects quantifiables des données capteurs pour les relier aux métriques appropriées de notre modèle de qualité de données spécifique. Notre travail présente les contributions suivantes : (i) création d’un modèle de qualité de données générique basé sur plusieurs standards de qualité existants, (ii) formalisation du modèle de qualité sous forme d’une ontologie qui nous permet l’intégration de ces modèles (de i), en spécifiant les différents liens, appelés relations d'équivalence, qui existent entre les critères composant ces modèles, (iii) proposition d’un algorithme d’instanciation pour extraire le modèle de qualité de données spécifique à partir du modèle de qualité de données générique, (iv) proposition d’une approche d’évaluation globale du modèle de qualité de données spécifique en utilisant deux processus, le premier processus consiste à exécuter les métriques reliées aux données capteurs et le deuxième processus récupère le résultat de cette exécution et utilise le principe de la logique floue pour l’évaluation des facteurs de qualité de notre modèle de qualité de données spécifique. Puis, l'expert établie des valeurs représentant le poids de chaque facteur en se basant sur la table d'interdépendance pour prendre en compte l'interaction entre les différents critères de données et on utilisera la procédure d'agrégation pour obtenir un degré de confiance. En ce basant sur ce résultat final, le composant décisionnel fera une analyse puis prendra une décision. / Data quality is a common condition to all information technology projects; it has become a complex research domain with the multiplicity and expansion of different data sources. Researchers have studied the axis of modeling and evaluating data, several approaches have been proposed but they are limited to a specific use field and did not offer a quality profile enabling us to evaluate a global quality model. The evaluation based on ISO quality models has emerged; however, these models do not guide us for their use, having to adapt them to each scenario without precise methods. Our work focuses on the data quality issues of an ambient system where the time constraints for decision-making is greater compared to traditional applications. The main objective is to provide the decision-making system with a very specific view of the sensors data quality. We identify the quantifiable aspects of sensors data to link them to the appropriate metrics of our specified data quality model. Our work presents the following contributions: (i) creating a generic data quality model based on several existing data quality standards, (ii) formalizing the data quality models under an ontology, which allows integrating them (of i) by specifying various links, named equivalence relations between the criteria composing these models, (iii) proposing an instantiation algorithm to extract the specified data quality model from the generic data quality models, (iv) proposing a global evaluation approach of the specified data quality model using two processes, the first one consists in executing the metrics based on sensors data and the second one recovers the result of the first process and uses the concept of fuzzy logic to evaluate the factors of our specified data quality model. Then, the expert defines weight values based on the interdependence table of the model to take account the interaction between criteria and use the aggregation procedure to get a degree of confidence value. Based on the final result, the decisional component makes an analysis to make a decision.
39

Résilience des systèmes informatiques adaptatifs : modélisation, analyse et quantification / Resilience of adaptive computer systems : modelling, analysis and quantification

Excoffon, William 08 June 2018 (has links)
On appelle résilient un système capable de conserver ses propriétés de sûreté de fonctionnement en dépit des changements (nouvelles menaces, mise-à-jour,…). Les évolutions rapides des systèmes, y compris des systèmes embarqués, implique des modifications des applications et des configurations des systèmes, en particulier au niveau logiciel. De tels changements peuvent avoir un impact sur la sûreté de fonctionnement et plus précisément sur les hypothèses des mécanismes de tolérance aux fautes. Un système est donc résilient si de pareils changements n’invalident pas les mécanismes de sûreté de fonctionnement, c’est-à-dire, si les mécanismes déjà en place restent cohérents malgré les changements ou dont les incohérences peuvent être rapidement résolues. Nous proposons tout d’abord dans cette thèse un modèle pour les systèmes résilients. Grâce à ce modèle nous pourrons évaluer les capacités d’un ensemble de mécanismes de tolérance aux fautes à assurer les propriétés de sûreté issues des spécifications non fonctionnelles. Cette modélisation nous permettra également de définir un ensemble de mesures afin de quantifier la résilience d’un système. Enfin nous discuterons dans le dernier chapitre de la possibilité d’inclure la résilience comme un des objectifs du processus de développement / A system that remains dependable when facing changes (new threats, updates) is called resilient. The fast evolution of systems, including embedded systems, implies modifications of applications and system configuration, in particular at software level. Such changes may have an impact on the dependability of the system, in particular on the assumptions of the fault tolerance mechanisms. A system is resilient when such changes do not invalidate its dependability mechanisms, said in a different way, current dependability mechanisms remain appropriate despite changes or whose inconsistencies can be rapidly solved. We propose in this thesis a model for resilient computing systems. Using this model we propose a way to evaluate if a set of fault tolerance mechanisms is able to ensure dependability properties from non-functional specifications. The proposed model is the used to quantify the resilience of a system using a set of specific measures. In the last chapter we discuss the possibility of including resilience as a goal in development process
40

Analyse métrique de structures HI dans le plan galactique

Robitaille, Jean-François 13 April 2018 (has links)
Je présente une version améliorée de la technique d'analyse par espace métrique introduite pour la première fois par Adams (1992). Cette technique est basée sur la comparaison de "fonctions de sortie" à une dimension qui analyse la topologie de cartes astrophysiques. Le nouvel espace métrique inclut de nouvelles fonctions de sortie, une meilleure réduction des données ainsi qu'une augmentation significative du nombre de structures isolées. A partir des données du "Canadian Galactic Plane Survey", la complexité de structures HI associées à 27 régions de formation d'étoiles, 13 étoiles Wolf-Rayet et 12 restes de supernova a pu être évaluée. Suite à ces calculs, une étude de corrélation a été réalisée entre le degré de complexité des structures HI et certaines caractéristiques intrinsèques associées aux objets, telles leur âge, la vitesse des vents stellaires et le paramètre d'excitation.

Page generated in 0.0431 seconds