• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Verifying Design Properties at Runtime Using an MDE-Based Approach Models @Run.Time Verification-Application to Autonomous Connected Vehicles / Vérification de propriétés de conception à l’exécution à l’aide d’une approche IDM, model@run.time verification - Application aux véhicules connectés autonomes

Loulou, Hassan 21 November 2017 (has links)
Un véhicule autonome et connecté (ACV – pour Autonomous Connected Vehicle ) est un système cyber-physique où le monde réel et l’espace numérique virtuel se fusionnent. Ce type de véhicule requiert un processus de validation rigoureuse commençant à la phase de conception et se poursuivant même après le déploiement du logiciel. Un nouveau paradigme est apparu pour le monitorat continu des exécutions des logiciels afin d'autoriser des adaptations automatiquement en temps réel, systématiquement lors d’une détection de changement dans l'environnement d'exécution, d’une panne ou d’un bug. Ce paradigme s’intitule : « Models@Run.time ». Cette thèse s’inscrit dans le cadre des ACVs et plus particulièrement dans le contexte des véhicules qui collaborent et qui partagent leurs données d’une manière sécurisée. Plusieurs approches de modélisation sont déjà utilisées pour exprimer les exigences relatives au contrôle d'accès afin d’imposer des politiques de sécurité. Toutefois, leurs outils de validation ne tiennent pas compte les impacts de l'interaction entre les exigences fonctionnelles et les exigences de sécurité. Cette interaction peut conduire à des violations de sécurité inattendues lors de l'exécution du système ou lors des éventuelles adaptations à l’exécution. En outre, l’estimation en temps réel de l’état de trafic utilisant des données de type crowdsourcing pourrait être utilisée pour les adaptations aux modèles de coopération des AVCs. Cette approche n'a pas encore été suffisamment étudiée dans la littérature. Pour pallier à ces limitations, de nombreuses questions doivent être abordées:• L'évolution des exigences fonctionnelles du système doit être prise en compte lors de la validation des politiques de sécurité ainsi que les scénarios d'attaque doivent être générés automatiquement.• Une approche pour concevoir et détecter automatiquement les anti-patrons (antipatterns) de sécurité doit être développée. En outre, de nouvelles reconfigurations pour les politiques de contrôle d'accès doivent également être identifiées, validées et déployées efficacement à l'exécution.• Les ACVs doivent observer et analyser leur environnement, qui contient plusieurs flux de données dite massives (Big Data) pour proposer de nouveaux modèles de coopération, en temps réel.Dans cette thèse, une approche pour la surveillance de l'environnement des ACVs est proposée. L’approche permet de valider les politiques de contrôle d'accès et de les reconfigurer en toute sécurité. La contribution de cette thèse consiste à:• Guider les Model Checkers de sécurité pour trouver automatiquement les scénarios d'attaque dès la phase de conception.• Concevoir des anti-patterns pour guider le processus de validation, et développer un algorithme pour les détecter automatiquement lors des reconfigurations des modèles.• Construire une approche pour surveiller en temps réel les flux de données dynamiques afin de proposer des adaptations de la politique d'accès lors de l'exécution.L’approche proposée a été validée en utilisant plusieurs exemples liés aux ACVs, et les résultats des expérimentations prouvent la faisabilité de cette approche. / Autonomous Connected Vehicles (ACVs) are Cyber-physical systems (CPS) where the computationalworld and the real one meet. These systems require a rigorous validation processthat starts at design phase and continues after the software deployment. Models@Runtimehas appeared as a new paradigm for continuously monitoring software systems execution inorder to enable adaptations whenever a change, a failure or a bug is introduced in the executionenvironment. In this thesis, we are going to tackle ACVs environment where vehicles tries tocollaborate and share their data in a secure manner.Different modeling approaches are already used for expressing access control requirementsin order to impose security policies. However, their validation tools do not consider the impactsof the interaction between the functional and the security requirements. This interaction canlead to unexpected security breaches during the system execution and its potential runtimeadaptations. Also, the real-time prediction of traffic states using crowd sourcing data could beuseful for proposition adaptations to AVCs cooperation models. Nevertheless, it has not beensufficiently studied yet. To overcome these limitations, many issues should be addressed:• The evolution of the system functional part must be considered during the validation ofthe security policy and attack scenarios must be generated automatically.• An approach for designing and automatically detecting security anti-patterns might bedeveloped. Furthermore, new reconfigurations for access control policies also must befound, validated and deployed efficiently at runtime.• ACVs need to observe and analyze their complex environment, containing big-datastreams to recommend new cooperation models, in near real-time.In this thesis, we build an approach for sensing the ACVs environment, validating its accesscontrol models and securely reconfiguring it on the fly. We cover three aspects:• We propose an approach for guiding security models checkers to find the attack scenariosat design time automatically.• We design anti-patterns to guide the validation process. Then, we develop an algorithmto detect them automatically during models reconfigurations. Also, we design a mechanismfor reconfiguring the access control model and we develop a lightweight modularframework for an efficient deployment of new reconfigurations.• We build an approach for the real-time monitoring of dynamic data streams to proposeadaptations for the access policy at runtime.Our proposed approach was validated using several examples related o ACVs. the results ofour experimentations prove the feasibility of this approach.
2

Exploration des techniques de fouille de données pour un monitoring efficace des systèmes intégrés sur puce / Exploration of Data Mining techniques for an efficient Monitoring of Systems on Chip

Najem, Mohamad 08 December 2015 (has links)
La miniaturisation des technologies de semi-conducteurs a permis en quelques décennies de concevoir des systèmes toujours plus complexes, comprenant aujourd'hui plusieurs milliards de transistors sur un même substrat de silicium. Cette augmentation des densités d'intégration fait face à une contrainte physique représentée par la quantité de puissance consommée par unité de surface. À cela s'ajoutent également des problèmes de fiabilité, en raison notamment des hot-spots, qui peuvent accélérer la dégradation des transistors et réduire en conséquence la durée de vie du composant. L'efficacité énergétique des circuits devient un enjeu majeur, aussi bien dans le domaine de l'embarqué que pour des applications de calcul haute performance. La prise en compte de ces contraintes nécessite la mise en place de solutions nouvelles, s'appuyant notamment sur des techniques d'auto-adaptation. Celles-ci reposent généralement sur un processus bouclé en trois phases: (i) le monitoring qui consiste à observer l'état du système, (ii) le diagnostic qui analyse les informations relevées pour optimiser le fonctionnement du système, et (iii) l'action qui règle les paramètres en conséquence. L'efficacité d'une méthode d'adaptation dépend non seulement de l'algorithme d'optimisation mais aussi de la précision de l'information observée en ligne. Le monitoring est généralement effectué à l'aide d'un ensemble de capteurs intégrés (analogiques ou numériques). Les méthodes industrielles actuelles consistent à placer un nombre de capteurs par ressource (monitoring statique). Cependant, ces méthodes sont généralement très coûteuses et nécessitent l'insertion d'un grand nombre d'unités pour avoir une information précise sur le comportement du système à une résolution spatiale et temporelle fine. Cette thèse propose une approche innovante qui intervient en amont; un ensemble de techniques issues du domaine de la fouille de données est mis en œuvre pour l'analyse de données extraites des différents niveaux d'abstractions à partir du flot de conception, ce afin de définir une solution optimale en terme de coût et de précision. Notre méthode permet de dégager de manière systématique l'information pertinente requise pour la mise en œuvre d'un monitoring efficace et dans un contexte où la consommation et la fiabilité apparaissent comme de fortes contraintes, cette thèse s'intéresse plus particulièrement à celui de la puissance et de la température sur puce. / Over the last decades, the miniaturization of semiconductor technologies has allowed to design complex systems, including today's several billions of transistors on a single die. As a consequence, the integration density has increased and the power consumption has become significant. This is compounded by the reliability issues represented by the presence of thermal hotspots that can accelerate the degradation of the transistors, and consequently reduce the chip lifetime. In order to face these challenges, new solutions are required, based in particular on the self-adaptive systems. These systems are mainly composed of a control loop with three processes: (i) the monitoring which is responsible for observing the state of the system, (ii) the diagnosis, which analyzes the information collected and make decisions to optimize the behavior of the system, and (iii) the action that adjusts the system parameters accordingly. However, effective adaptations depend critically on the monitoring process that should provide an accurate estimation about the system state in a cost-effective way. The monitoring is typically done by using integrated sensors (analog or digital). The industrial methods consist of placing one sensor per resource (static monitoring). However, these methods are usually too expensive, and require a large number of units to produce a precise information at a fine-grained resolution. This thesis proposes an innovative and ‘upstream' approach; a set of data mining techniques is used to analyze data extracted from various levels of abstractions from the design flow, in order to define the optimum monitoring in terms of cost and accuracy. Our method systematically identifies relevant information required for the implementation of effective monitoring. This thesis mainly focuses on the monitoring of the power and the temperature of the chip.
3

[en] A BIDIMENSIONAL ADAPTATIVE FINITE ELEMENT ANALYSIS OF FRACTURE UNDER FATIGUE / [es] SIMULACIÓN BIDIMENSIONAL ADAPTATIVA POR ELEMENTOS FINITOS DE PROCESOS DE FRACTURA POR FATIGA / [pt] SIMULAÇÃO BIDIMENSIONAL ADAPTATIVA POR ELEMENTOS FINITOS DE PROCESSOS DE FRATURAMENTO POR FADIGA

CARLOS VITOR DE ALENCAR CARVALHO 29 March 2001 (has links)
[pt] Este trabalho descreve um ferramenta computacional baseada no método dos elementos finitos para a análise de componentes estruturais e componentes de equipamentos sujeitos a fadiga. Foram implementados modelos empíricos conhecidos na literatura para previsão ou estimativa de vida útil à fadiga dos componentes solicitados por carregamentos de amplitude constante. Também foram implementadas teorias que determinam a direção de propagação das trincas, possibilitando a propagação automática das trincas no modelo. Esta ferramenta é genérica pois é capaz de tratar problemas com qualquer tipo de geometria (modelos bidimensionais) e carregamento (amplitude constante). Ela é precisa pois está baseada em um processo numérico adaptativo e robusto. E ela é prática pois é dirigida pelo Engenheiro Projetista através de uma interface gráfica interativa bastante flexível e que permite em todos os instantes a visualização do modelo e de seus resultados e respostas. / [en] This work describes a computational tool, based on the finite element method, for the analysis of structural and equipament components subjected to fatigue. Well-known empiric models were implemented for the fatigue life estimation of these components subjected to constant amplitude loading. In addition, three theories that determine the direction of propagation of the crack were implemented, allowing an automatic fracture propagation. The resulting system is generic in the sense that it can treat problems of arbritary geometry (2D) with generic loading (constant amplitude). It is precise in that it is based on a robust self-adaptive numerical procedure. And it is practical in that it is driven by the Engineer through a flexible interactive graphics interface that allows the visualization of the model and its results and responses at any time during the simulation. / [es] Este trabajo describe una herramienta computacional basada en el método de los elementos finitos para el análisis de componentes extructurales y componentes de equipos sujetos a fatiga . Fueron implementados modelos empíricos reportados en la literatura para la previsión o estimativa de la vida útil a la fatiga de los componentes solicitados por sobrepeso de amplitude constante. También se implementaron teorías que determinan la direción de propagación de las trincas, posibilitando la propagación automática de las trincas en el modelo. Esta herramienta es genérica, ya que es capaz de tratar problemas con cualquier tipo de geometría (modelos bidimensionales) y sobrepeso (amplitude constante). Tiene una alta precisión porque tiene como base un proceso numérico adaptativo y robusto. Esta herramienta es dirigida por el Ingeniero Proyectista a través de una interfaz gráfica interactiva bastante flexíble que permite, en todos los instantes, la visualización del modelo, sus resultados y respuestas.
4

Solutions pour l'auto-adaptation des systèmes sans fil / Solutions for the self-adaptation of wireless systems

Andraud, Martin 14 June 2016 (has links)
La demande courante de connectivité instantanée impose un cahier des charges très strict sur la fabrication des circuits Radio-Fréquences (RF). Les circuits doivent donc être transférées vers les technologies les plus avancées, initialement introduites pour augmenter les performances des circuits purement numériques. De plus, les circuits RF sont soumis à de plus en plus de variations et cette sensibilité s’accroît avec l’avancées des technologies. Ces variations sont par exemple les variations du procédé de fabrication, la température, l’environnement, le vieillissement… Par conséquent, la méthode classique de conception de circuits “pire-cas” conduit à une utilisation non-optimale du circuit dans la vaste majorité des conditions, en termes de performances et/ou de consommation. Ces variations doivent donc être compensées, en utilisant des techniques d’adaptation.De manière plus importante encore, le procédé de fabrication des circuits introduit de plus en plus de variabilité dans les performances des circuits, ce qui a un impact important sur le rendement de fabrication des circuits. Pour cette raison, les circuits RF sont difficilement fabriqués dans les technologies CMOS les plus avancées comme les nœuds 32nm ou 22nm. Dans ce contexte, les performances des circuits RF doivent êtres calibrées après fabrication pour prendre en compte ces variations et retrouver un haut rendement de fabrication.Ce travail de these présente une méthode de calibration post-fabrication pour les circuits RF. Cette méthodologie est appliquée pendant le test de production en ajoutant un minimum de coût, ce qui est un point essentiel car le coût du test est aujourd’hui déjà comparable au coût de fabrication d’un circuit RF et ne peut être augmenté d’avantage. Par ailleurs, la puissance consommée est aussi prise en compte pour que l’impact de la calibration sur la consommation soit minimisé. La calibration est rendue possible en équipant le circuit avec des nœuds de réglages et des capteurs. L’identification de la valeur de réglage optimale du circuit est obtenue en un seul coup, en testant les performances RF une seule et unique fois. Cela est possible grâce à l’utilisation de capteurs de variations du procédé de fabrication qui sont invariants par rapport aux changements des nœuds de réglage. Un autre benefice de l’utilisation de ces capteurs de variation sont non-intrusifs et donc totalement transparents pour le circuit sous test. La technique de calibration a été démontrée sur un amplificateur de puissance RF utilisé comme cas d’étude. Une première preuve de concept est développée en utilisant des résultats de simulation.Un démonstrateur en silicium a ensuite été fabriqué en technologie 65nm pour entièrement démontrer le concept de calibration. L’ensemble des puces fabriquées a été extrait de trois types de wafer différents, avec des transistors aux performances lentes, typiques et rapides. Cette caractéristique est très importante car elle nous permet de considérer des cas de procédé de fabrication extrêmes qui sont les plus difficiles à calibrer. Dans notre cas, ces circuits représentent plus des deux tiers des puces à disposition et nous pouvons quand même prouver notre concept de calibration. Dans le détails, le rendement de fabrication passe de 21% avant calibration à plus de 93% après avoir appliqué notre méthodologie. Cela constitue une performance majeure de notre méthodologie car les circuits extrêmes sont très rares dans une fabrication industrielle. / The current demand on ubiquitous connectivity imposes stringent requirements on the fabrication of Radio-Frequency (RF) circuits. Designs are consequently transferred to the most advanced CMOS technologies that were initially introduced to improve digital performance. In addition, as technology scales down, RF circuits are more and more susceptible to a lot of variations during their lifetime, as manufacturing process variability, temperature, environmental conditions, aging… As a result, the usual worst-case circuit design is leading to sub-optimal conditions, in terms of power and/or performance most of the time for the circuit. In order to counteract these variations, increasing the performances and also reduce power consumption, adaptation strategies must be put in place.More importantly, the fabrication process introduces more and more performance variability, which can have a dramatic impact on the fabrication yield. That is why RF designs are not easily fabricated in the most advanced CMOS technologies, as 32nm or 22nm nodes for instance. In this context, the performances of RF circuits need to be calibrated after fabrication so as to take these variations into account and recover yield loss.This thesis work is presenting on a post-fabrication calibration technique for RF circuits. This technique is performed during production testing with minimum extra cost, which is critical since the cost of test can be comparable to the cost of fabrication concerning RF circuits and cannot be further raised. Calibration is enabled by equipping the circuit with tuning knobs and sensors. Optimal tuning knob identification is achieved in one-shot based on a single test step that involves measuring the sensor outputs once. For this purpose, we rely on variation-aware sensors which provide measurements that remain invariant under tuning knob changes. As an auxiliary benefit, the variation-aware sensors are non-intrusive and totally transparent to the circuit.Our proposed methodology has first been demonstrated with simulation data with an RF power amplifier as a case study. Afterwards, a silicon demonstrator has then been fabricated in a 65nm technology in order to fully demonstrate the methodology. The fabricated dataset of circuits is extracted from typical and corner wafers. This feature is very important since corner circuits are the worst design cases and therefore the most difficult to calibrate. In our case, corner circuits represent more than the two third of the overall dataset and the calibration can still be proven. In details, fabrication yield based on 3 sigma performance specifications is increased from 21% to 93%. This is a major performance of the technique, knowing that worst case circuits are very rare in industrial fabrication.
5

Modification de surfaces de téflon et de SiO2 par adsorption de complexes de cuivre(II)- carboxylates perfluorés / Élaboration de surfaces auto-adaptatives, hydrophiles et coordinantes appliquées à la préparation de couches minces de porphyrines

Motreff-Zeisser, Artur 21 October 2010 (has links)
Le développement de méthodologies permettant de fonctionnaliser aisément les surfaces est un domaine en plein essor. Nous avons synthétisé et caractérisé de nouveaux complexes de cuivre(II)-carboxylates hautement fluorophiles qui ont été utilisés pour modifier des surfaces. Ces complexes possèdent à l'état solide une très grande affinité pour l'eau, l'hydratation induisant un changement radical des propriétés magnétiques du solide. Ces complexes fluorophiles s'adsorbent très fortement sur le Téflon ou sur le verre pour conduire à des surfaces hydrophiles et coordinantes. En utilisant la chimie de coordination, les surfaces ont ensuite été fonctionnalisées. Des monocouches et des couches minces de porphyrines ont été obtenues sur le verre et sur le téflon puis caractérisées, notamment grâce à leurs propriétés optiques. / The development of methodologies to easily functionalize surfaces is a fast growing field. We have synthesized and characterized new highly fluorophilic copper(II)-carboxylate complexes that have been employed to modify surfaces. In the solid state, these complexes exhibit a high affinity for water, the hydration process inducing dramatic modifications of their magnetic properties. These fluorophilic complexes are strongly adsorbed on teflon or glass to afford hydrophilic and coordinating surfaces. Using coordination chemistry, the surfaces can than be functionalized. Porphyrins monolayers and thin layers have been prepared on glass and teflon and characterized, in particular by their optical properties.
6

Geração genética de classificador fuzzy intervalar do tipo-2

Pimenta, Adinovam Henriques de Macedo 30 October 2009 (has links)
Made available in DSpace on 2016-06-02T19:05:45Z (GMT). No. of bitstreams: 1 3199.pdf: 1902769 bytes, checksum: 95b9e8c5042bd6117bd75983a58966f6 (MD5) Previous issue date: 2009-10-30 / Universidade Federal de Sao Carlos / The objective of this work is to study, expand and evaluate the use of interval type-2 fuzzy sets in the knowledge representation for fuzzy inference systems, specifically for fuzzy classifiers, as well as its automatic generation form data sets, by means of genetic algorithms. This work investigates the use of such sets focussing the issue of balance between the cost addition in representation and the gains in interpretability and accuracy, both deriving from the representation and processing complexity of interval type-2 fuzzy sets. With this intent, an evolutionary model composed of three stages was proposed and implemented. In the first stage the rule base is generated, in the second stage the data base is optimized and finally, the number of rules of the rule base obtained is optimized in the third stage. The model developed was evaluated using several benchmark data sets and the results obtained were compared with two other fuzzy classifiers, being one of them generated by the same model using type-1 fuzzy sets and the other one generated by the Wang&Mendel method. Statistical methods usually applied for comparisons in similar contexts demonstrated a significant improvement in the classification rates of the intervalar type-2 fuzzy set classifier generated by the proposed model, with relation to the other methods. / O objetivo deste trabalho é estudar, expandir e avaliar o uso de conjuntos fuzzy intervalares tipo-2 na representação do conhecimento em sistemas de inferência fuzzy, mais especificamente para os classificadores fuzzy, bem como sua geração automática a partir de conjuntos de dados, por meio de algoritmos genéticos. Esse trabalho investiga o uso de tais conjuntos com enfoque na questão de balanceamento entre o acréscimo de custo da representação e os ganhos em interpretabilidade e precisão, ambos decorrentes da complexidade de representação e processamento dos conjuntos fuzzy intervalares do tipo-2. Com este intuito, foi proposto e implementado um modelo evolutivo composto por três etapas. Na primeira etapa á gerada a base de regras, na segunda é otimizada a base de dados e, por fim, na terceira etapa o número de regras da base gerada é otimizado. O modelo desenvolvido foi avaliado em diversos conjuntos de dados benchmark e os resultados obtidos foram comparados com outros dois classificadores fuzzy, sendo um deles gerados pelo mesmo modelo, porém, utilizando conjuntos fuzzy do tipo-1 e, o outro, gerado pelo método de Wang&Mendel. Métodos estatísticos de comparação usualmente aplicados em contextos semelhantes mostraram aumento significativo na taxa de classificação do classificador fuzzy intervalar do tipo-2 gerado pelo modelo em relação aos outros dois classificadores utilizados para comparação.

Page generated in 0.056 seconds