• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 1
  • Tagged with
  • 27
  • 27
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Diffusion acoustique par des coques cylindriques limitées immergées. On des hélicoïdales: analyse des réponses temporelles et identification complète des résonances

Haumesser, Lionel 20 December 2001 (has links) (PDF)
La pression acoustique diffusée par des tubes de longueur finie, immergés dans l'eau, est analysée expérimentalement et théoriquement dans les espaces de Fourier. La signature, spectrale et temporelle, de tels objets est interprétée en termes de résonance et de propagation d'ondes de surface. Les diffuseurs sont en acier inoxydable, de rapports des rayons interne sur externe égaux à 0,83 et 0,97. Ils sont excités en champ lointain par des signaux ultrasonores large bande, pour des angles d'incidence compris entre 0° (incidence normale par rapport à l'axe principal des objets) et 50°. Les résonances présentes dans les réponses spectrales rétrodiffusées, relatives aux ondes hélicoïdales S0 et T0, sont identifiées. Les modes de vibration associés sont déterminés expérimentalement en utilisant deux dispositifs de mesure bistatiques. Un premier montage, où le transducteur récepteur tourne dans un plan perpendiculaire à l'axe du tube, conduit à l'identification des modes circonférentiels (n) ; un second montage original, où le récepteur se déplace parallèlement à l'axe de l'objet, permet d'identifier les modes axiaux (m). Ces résultats sont en accord avec ceux obtenus à l'aide d'une approche théorique modale hybride combinant la théorie de l'élasticité et l'intégrale de diffraction de Kirchhoff. Ces informations (fréquence de résonance, n, m) permettent d'évaluer la vitesse de phase et l'angle de propagation de l'onde correspondante. On réalise ainsi l'identification complète des résonances de l'objet (nature de l'onde, n, m). Chaque résonance, manifestation d'un mode propre de l'objet limité sélectionné par les conditions d'excitation, est observée à une seule fréquence pour plusieurs angles d'incidence voisins. Un modèle géométrique décrivant le parcours hélicoïdal des ondes sur le tube permet l'analyse des réponses temporelles. Les temps auxquels les échos sont observés, sont associés à des trajets de l'onde T0. L'influence des dimensions des objets (longueur et diamètre) sur la rétrodiffusion est ainsi étudiée. L'approche géométrique permet également de considérer les effets liés à la présence d'un disque radial dans les tubes : le rôle de l'onde A (onde d'interface) devient prédominant.
22

Timing verification in transaction modeling

Tsikhanovich, Alena 12 1900 (has links)
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application. / Hardware/Software (Hw/Sw) systems are likely to become essential in all aspects of everyday life. The increasing penetration of Hw/Sw systems in products and services creates a necessity of their efficient development. However, the productive design of these systems is limited by several factors, some of them being the increasing complexity of applications, the increasing degree of integration, the heterogeneous nature of products and services as well as the shrinking of the time-to-market delay. Transaction Level Modeling (TLM) paradigm is considered as one of the most promising simulation paradigms to break down the design complexity by allowing the exploration and validation of design alternatives at high levels of abstraction. This research proposes a timing expression methodology in TLM based on temporal constraints analysis. We propose to use a combination of two paradigms to accelerate the design process: TLM on one hand and a methodology to express timing between different transactions on the other hand. Using a timing specification model and underlining timing constraints verification algorithms can decrease the time needed for verification by simulation. Combining in one framework the simulation and analytical design exploration methods can improve the analytical power of design verification and validation. We have proposed a new timing verification algorithm based on the linearization procedure and an optimization technique to improve its efficiency. We have completed the mathematical representation of all constraint types discussed in the literature creating in this way a unified timing specification methodology that can be used in the expression of a wider class of applications than previously presented ones. We have developed the methods for communication structure exploration and refinement that permitted us to apply the timing verification algorithms in system exploration at different TLM levels. As there are many definitions of TLM and many development environments proposing TLM in their design cycle with several pro and contra, in the context of our research we define a hardware/software (Hw/Sw) specification and simulation methodology which supports TLM in such a way that several modeling concepts can be seen separately. Relying on the use of modern software engineering technologies such as XML, XSLT, XSD, object oriented programming and others supported by the .Net Framework, an approach that makes an intermediate design model reuse possible in order to cope with time-to-market constraint is presented. The proposed TLM design methodology provides a general approach in system modeling that separates various application modeling aspects from system specification: computational models, used in application modeling, supported by the language used for the functional specification and provided by simulator. As a result, in the system model we can clearly identify system functionality without details related to the development platform thereby leading to a better “portability” of the application model.
23

Methodology for a model based timing analysis process for automotive systems.

Rekik, Saoussen 09 November 2011 (has links) (PDF)
Aujourd'hui, les applications automobiles sont devenues de plus en plus complexes avec des ressources limitées et plus de contraintes de temps et de safety. La vérification temporelle est effectuée très tard aujourd'hui au cours du processus de développement automobile (après l'implémentation et au cours de la phase d'intégration). Pour apporter des solutions aux problèmes du développement logiciel automobile, plusieurs approches de développement dirigé par les modèles ont été définit. Ces approches donnent des langages, des concepts et des méthodologies pour la description de l'architecture des systèmes automobiles. Cependant, ces approches ne donnent aucun guide méthodologique pour intégrer l'analyse temporelle (notamment l'analyse d'ordonnancement) tout au long du processus de développement. Ce travail de thèse propose de développer une méthodologie décrivant un processus d'analyse temporelle dirigé par les modèles. Cette méthodologie décrit les différentes phases du processus de développement dirigé par les modèles et comment l'analyse temporelle est effectuée durant chaque phase.
24

Analyse temporelle des systèmes temps-réels sur architectures pluri-coeurs / Many-Core Timing Analysis of Real-Time Systems

Rihani, Hamza 01 December 2017 (has links)
La prédictibilité est un aspect important des systèmes temps-réel critiques. Garantir la fonctionnalité de ces systèmespasse par la prise en compte des contraintes temporelles. Les architectures mono-cœurs traditionnelles ne sont plussuffisantes pour répondre aux besoins croissants en performance de ces systèmes. De nouvelles architectures multi-cœurssont conçues pour offrir plus de performance mais introduisent d'autres défis. Dans cette thèse, nous nous intéressonsau problème d’accès aux ressources partagées dans un environnement multi-cœur.La première partie de ce travail propose une approche qui considère la modélisation de programme avec des formules desatisfiabilité modulo des théories (SMT). On utilise un solveur SMT pour trouverun chemin d’exécution qui maximise le temps d’exécution. On considère comme ressource partagée un bus utilisant unepolitique d’accès multiple à répartition dans le temps (TDMA). On explique comment la sémantique du programme analyséet le bus partagé peuvent être modélisés en SMT. Les résultats expérimentaux montrent une meilleure précision encomparaison à des approches simples et pessimistes.Dans la deuxième partie, nous proposons une analyse de temps de réponse de programmes à flot de données synchroness'exécutant sur un processeur pluri-cœur. Notre approche calcule l'ensemble des dates de début d'exécution et des tempsde réponse en respectant la contrainte de dépendance entre les tâches. Ce travail est appliqué au processeur pluri-cœurindustriel Kalray MPPA-256. Nous proposons un modèle mathématique de l'arbitre de bus implémenté sur le processeur. Deplus, l'analyse de l'interférence sur le bus est raffinée en prenant en compte : (i) les temps de réponseet les dates de début des tâches concurrentes, (ii) le modèle d'exécution, (iii) les bancsmémoires, (iv) le pipeline des accès à la mémoire. L'évaluation expérimentale est réalisé sur desexemples générés aléatoirement et sur un cas d'étude d'un contrôleur de vol. / Predictability is of paramount importance in real-time and safety-critical systems, where non-functional properties --such as the timing behavior -- have high impact on the system's correctness. As many safety-critical systems have agrowing performance demand, classical architectures, such as single-cores, are not sufficient anymore. One increasinglypopular solution is the use of multi-core systems, even in the real-time domain. Recent many-core architectures, such asthe Kalray MPPA, were designed to take advantage of the performance benefits of a multi-core architecture whileoffering certain predictability. It is still hard, however, to predict the execution time due to interferences on sharedresources (e.g., bus, memory, etc.).To tackle this challenge, Time Division Multiple Access (TDMA) buses are often advocated. In the first part of thisthesis, we are interested in the timing analysis of accesses to shared resources in such environments. Our approach usesSatisfiability Modulo Theory (SMT) to encode the semantics and the execution time of the analyzed program. To estimatethe delays of shared resource accesses, we propose an SMT model of a shared TDMA bus. An SMT-solver is used to find asolution that corresponds to the execution path with the maximal execution time. Using examples, we show how theworst-case execution time estimation is enhanced by combining the semantics and the shared bus analysis in SMT.In the second part, we introduce a response time analysis technique for Synchronous Data Flow programs. These are mappedto multiple parallel dependent tasks running on a compute cluster of the Kalray MPPA-256 many-core processor. Theanalysis we devise computes a set of response times and release dates that respect the constraints in the taskdependency graph. We derive a mathematical model of the multi-level bus arbitration policy used by the MPPA. Further,we refine the analysis to account for (i) release dates and response times of co-runners, (ii)task execution models, (iii) use of memory banks, (iv) memory accesses pipelining. Furtherimprovements to the precision of the analysis were achieved by considering only accesses that block the emitting core inthe interference analysis. Our experimental evaluation focuses on randomly generated benchmarks and an avionics casestudy.
25

Digital surface model generation over urban areas using high resolution satellite SAR imagery : tomographic techniques and their application to 3-Dchange monitoring / Génération des modèles numériques de la surface sur les zones urbaines au moyen des images satellitaires SAR à haute résolution : techniques tomographiques et leur application à la surveillance des changements 3-D

Porfiri, Martina 26 July 2016 (has links)
L'urbanisation et la gestion de l'environnement urbain et sa périphérie deviennent l'un des problèmes les plus cruciaux dans les pays développés et en développement. Dans ces circonstances, les données de télédétection sont une source importante d'information qui reflète les interactions entre les êtres humains et leur environnement. Compte tenu de leur indépendance totale des contraintes logistiques sur le terrain, l'éclairage (lumière du jour) et météorologiques (nuages) conditions, Synthetic Aperture Radar (SAR) les systèmes de satellites peuvent fournir des contributions importantes dans des environnements complexes de reconstruction 3-D. La nouvelle génération de haute résolution SAR capteurs comme COSMOSkyMed, TerraSAR-X RADARSAT-2 a permis d'acquérir des images SAR à haute résolution. Ici, l'attention est mis sur la technique pour l'imagerie 3-D nominée tomographie SAR: à partir d'une pile d'images ont été recueillies en utilisant les données multibaseline effectuées dans la configuration interférométrique, une telle technique permet d'extraire les informations de hauteur formant une ouverture synthétique dans la direction d'élévation afin d'obtenir une résolution sensiblement améliorée. Cette thèse de doctorat se concentre sur les potentialités élevées de techniques tomographiques en 3-D surveillance des changements et la caractérisation des zones complexes et denses bâties en utilisant des estimateurs mono-dimensionnelle de base comme Beamforming, Capon et MUSIC combinée au satellite très haute résolution des images SAR. 2-D et de l'analyse 3-D ont été présentés sur la zone urbaine de Paris en utilisant les données TerraSAR-X à haute résolution et de polarisation unique. Être porté principalement sur les techniques tomographiques 3-D, dans les méthodes de travail 4-D présentés, tels que le Compressive Sensing, ne sont pas pris en compte. Dans un premier temps, l'analyse de la qualité interférométrique de l'ensemble de données transformées a montré de bonnes valeurs de cohérence moyenne et ont permis de détecter des images considérées comme des valeurs aberrantes. L'extraction des tomographies 2-D sur l'azimut différent de profil a montré la capacité de distinguer plus d'un diffuseur à l'intérieur de la même cellule de résolution et de reconstituer les profilés de construction verticaux. Successivement, une caractérisation 3-D globale en terme de bâtiments hauteurs et réflectivité verticale a été réalisée dans le but de développer un outil de suivi des changements des structures simples. En outre, la possibilité de corriger les distorsions géométriques en raison de l'escale (qui affecte fortement ce genre de scénarios) et de déterminer les informations sur le nombre de diffuseurs (jusqu'à trois) et la réflectivité correspondant à l'intérieur d'une cellule de résolution ont été évalués. / The urbanization and the management of urban environment and its periphery become one of the most crucial issues in developed and developing countries. In these circumstances, remote sensing data are an important source of information that reflects interactions between human beings and their environment. Given their complete independence from logistic constraints on the ground, illumination (daylight), and weather (clouds) conditions, Synthetic Aperture Radar (SAR) satellite systems may provide important contributions in complex environments 3-D reconstruction. The new generation of high resolution SAR sensors as COSMO-SkyMed, TerraSAR-X and RADARSAT-2 allowed to acquire high resolution SAR imagery. Here the attention is put on the 3-D imaging technique called SAR Tomography: starting from a stack of images collected using multibaseline data performed in interferometric configuration, such a technique allows to retrieve height information forming a synthetic aperture in the elevation direction in order to achieve a substantially improved resolution. The present PhD thesis is focused on the high potentialities of tomographic techniques in 3-D change monitoring and characterization for complex and dense built-up areas using basic mono-dimensional estimators as Beamforming, Capon and MUSIC combined to very high satellite SAR resolution imagery. 2-D and 3-D analysis have been presented over the urban area of Paris using TerraSAR-X data at high resolution and single polarisation. Being mainly focused on the 3-D tomographic techniques, in the presented work 4-D methods, such as compressive sensing (CS), have not been taken into account. At first, the analysis of the interferometric quality of the processed data set has been performed and results showed good mean coherence values within the entire stack. The extraction of 2-D tomograms over different azimuth-profile has showed the capabilities to distinguish more than one scatterer within the same resolution cell and to reconstruct the vertical building profiles. Successively, a global 3-D characterization both in term of buildings heights and vertical reflectivity has been performed in order to develop a monitoring tool for the changes of single structures. Moreover, the possibility to correct the geometric distortions due to the layover (that strongly affects such kind of scenarios) and to determine the information about the number of scatterers (up to three) and the corresponding reflectivity within one resolution cell have been evaluated. Moreover an innovative time stability analysis of the observed scene have been carried out in order to detect the stable and unstable scatterers. Globally, the investigations showed noisier and sparser point clouds for the Capon method, whereas better capabilities for the Beamforming and MUSIC ones. Indeed, it was possible to detect different scatterers located within the same resolution cell and to resolve pixels affected by the layover. This has lead to perform a good reconstruction of building shape and location and a good estimation of their elevation. The 3-D time stability analysis demonstrated the possibility to monitor the 3-D change depending on the time. Eventually, it is possible to assert that processing high resolution SAR data allows to achieve a strong improvement in 3-D imaging capabilities. It has been demonstrated the potentialities of TomoSAR technique in distortions correction and in 3-D change monitoring using basic mono-dimensional estimators.
26

L'effet de la richesse immobilière sur la consommation : évidence pour le Canada

Wedefort, Lina 19 April 2018 (has links)
L’évolution du marché boursier, le développement et la consolidation progressive du marché immobilier, l’accroissement de la valeur des maisons et du revenu disponible au cours des dernières décennies mettent en relief l’importance des effets de la richesse immobilière, financière et humaine sur l’évolution des dépenses de consommation des ménages. Appuyé sur la théorie de la cointégration et un modèle à correction d’erreur, ce travail analyse les fluctuations de différentes catégories de consommation canadiennes (1961 - 2011) à court et à long terme, en évaluant l’impact des diverses définitions de la richesse sur ces dépenses. Il n’y a pas qu’une seule propension marginale à consommer par rapport à chaque richesse. La richesse immobilière semble avoir joué un rôle plus important que la richesse boursière dans cette évolution. La richesse humaine est celle qui a une influence la plus forte sur la consommation. Il existe une évidence partagée par rapport à l’occurrence de contraintes de liquidité. La disponibilité du crédit est contrainte, ce qui peut limiter la possibilité de lissage inter-temporel de la consommation. / In the last decades, the evolution of the stock market, the development and the progressive consolidation of housing market, the increase of house prices and disposable income have accentuated the importance of housing, financial and human wealth’ effects on household consumer spending’s evolution. Using cointegration theory and an the error-correction model, this work analyzes fluctuations in various Canadian categories of consumption between 1961 and 2011 in the short-run and long-run; as well it estimates the impact of the wealth diverse definitions on these expenses. There is not only one marginal propensity to consume in relation to every wealth. Housing wealth has a role more important than financial wealth in this evolution. In addition, human wealth is the strongest factor influencing the consumption. We found evidence related to the occurrence of liquidity constraints. When credit availability is restrained, this can limit the possibility of inter-temporal consumption smoothing. JEL Classifications: E21, E32, C22 Keywords: Housing wealth, consumption, wealth effect, cointegration, life-cycle, liquidity constraints.
27

Methodology for a Model-based Timing Analysis Process for Automotive Systems / Méthodologie pour un processus d’analyse temporelle dirigé par les modèles pour les systèmes automobiles

Rekik, Saoussen 09 November 2011 (has links)
Aujourd'hui, les applications automobiles sont devenues de plus en plus complexes avec des ressources limitées et plus de contraintes de temps et de safety. La vérification temporelle est effectuée très tard aujourd'hui au cours du processus de développement automobile (après l'implémentation et au cours de la phase d'intégration). Pour apporter des solutions aux problèmes du développement logiciel automobile, plusieurs approches de développement dirigé par les modèles ont été définit. Ces approches donnent des langages, des concepts et des méthodologies pour la description de l'architecture des systèmes automobiles. Cependant, ces approches ne donnent aucun guide méthodologique pour intégrer l'analyse temporelle (notamment l'analyse d'ordonnancement) tout au long du processus de développement. Ce travail de thèse propose de développer une méthodologie décrivant un processus d'analyse temporelle dirigé par les modèles. Cette méthodologie décrit les différentes phases du processus de développement dirigé par les modèles et comment l'analyse temporelle est effectuée durant chaque phase. / Automotive systems are characterized today by increasing complexity, limited resources and more and more timing and safety requirements. Timing verification is performed too late during the development process. It is addressed by means of measurements and tests rather than through formal and systematic analysis. To meet the challenges of automotive software development, many model-based approaches have been developed. These approaches give modeling languages, concepts and methodologies allowing the description of automotive architecture. However, these approaches give no guidance for the integration of timing analysis (mainly scheduling analysis) during the phases of the model-based development process. This PhD work aims at defining a methodology that describes a model-based timing analysis process. This methodology describes the different phases of the model-based development process and how timing analysis is performed during each phase. This work has been performed in the context of a technical collaboration between Continental Automotive and the CEA laboratory.

Page generated in 0.058 seconds