• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 7
  • Tagged with
  • 28
  • 28
  • 12
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Analyse spatiale et temporelle des transferts sédimentaires dans les hydrosystèmes normands. Exemple du bassin versant de la Seulles

Viel, Vincent 11 December 2012 (has links) (PDF)
L'élaboration de la Directive Cadre sur l'Eau (DCE) en 2000 et de la Loi sur l'Eau et les Milieux Aquatiques (LEMA) en 2006 a mis en lumière l'importance de la quantification et de la caractérisation des transferts hydrosédimentaires dans les cours d'eau pour la gestion des milieux et des ressources naturelles. En effet, les conséquences associées à ces transferts peuvent être catastrophiques pour les écosystèmes continentaux et aquatiques, la biodiversité et même pour les populations (inondations, pollutions). A l'heure où l'on s'interroge sur les modalités de gestion des masses d'eau et des bassins versants, nous avons mené une étude centrée sur les cours d'eau " ordinaires " de l'ouest de la France, qui disposent généralement d'une énergie réduite (<15W/m²), et qui contrairement aux systèmes fluviaux plus dynamiques du sud du pays, restent peu étudiés jusqu'à présent. En effet, si des études se sont attachées à évaluer le degré d'érosion des sols à l'échelle de la parcelle, à analyser les dynamiques de ruissellement au sein des blocs culturaux ou à quantifier les volumes de sédiments exportés des bassins versants, les modalités de transferts des sédiments entre la parcelle agricole et l'exutoire du bassin restaient difficile à déterminer. C'est pourquoi, pour améliorer la connaissance de ces systèmes et aller au-delà d'une approche en boîte noire du fonctionnement du bassin versant, nous avons mis en place un réseau de mesures des flux de MES dans le bassin versant de la Seulles (430 km²), représentatif des hydrosystèmes bas-normands. Il a permis de suivre en continu durant plusieurs années les flux de MES dans différents contextes géologiques, géomorphologiques et paysagers, et de s'interroger sur le rôle des effets d'échelles sur les dynamiques spatiales et temporelles des transferts sédimentaires. De plus, la réalisation de bilans quantitatifs et qualitatifs a permis d'identifier l'origine des sédiments dans le bassin et de hiérarchiser les contributions de chaque source afin de proposer des budgets sédimentaires emboîtés. L'ensemble de ces études amène le bassin de la Seulles à devenir le premier observatoire des transferts sédimentaires régional.
22

Vérification temporelle des systèmes cycliques et acycliques basée sur l’analyse des contraintes

Azzabi, Ahmed 08 1900 (has links)
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement. / We present a new approach for formulating and computing time separation of events used for timing analysis of different types of cyclic and acyclic systems that obey to linear-min-max type constraints with finite and infinite bounded component delays. Our approach consists of formulating the problem as a mixed integer program then using the solver Cplex to get time separations between events. In order to demonstrate the practical use of our approach we apply it for the verification and analysis of an Intel asynchronous differential equation solver chip. Compared to previous work, our approach is based on exact formulation and it allows not only the maximum separation computing, but it can also provide cyclic schedules and compute bound on possible periods of such schedules.
23

Ordonnancement efficace de systèmes embarqués temps réel strict sur plates-formes hétérogènes

Poczekajlo, Xavier 30 October 2020 (has links) (PDF)
Les systèmes embarqués sont de plus en plus présents dans notre quotidien, à l’instar des téléphones ou des équipements des voitures modernes. Les systèmes embarqués modernes utilisent des plates-formes de plus en plus complexes. Après avoir longtemps utilisé un seul processeur, les plates-formes modernes peuvent désormais contenir plusieurs processeurs. Depuis quelques années, afin de continuer à améliorer la performance de ces systèmes à moindre coût, certaines de ces plates-formes embarquent désormais plusieurs processeurs différents, parfois même capables de modifier rapidement leurs caractéristiques pendant l’exécution du système. C’est ce qu’on appelle des plates-formes hétérogènes.Cette thèse traite de l’ordonnancement d’applications temps réel strict pour des plates-formes hétérogènes reconfigurables. Établir une polituqe d’ordonnancement consiste à garantir l’exécution d’ensembles de tâches récurrentes, avec le respect des contraintes temporelles de chaque tâche. Dans un contexte de temps réel strict, une tâche doit nécessairement être pleinement exécutée avant son échéance. Tout retard pourrait compromettre la sécurité du système ou des utilisateurs.Produire un ordonnancement temps réel strict efficace pour de telles plates-formes hétérogènes est particulièrement difficile. En effet, la vitesse d’exécution d’un processeur d’une telle plates-forme dépend à la fois du type du processeur et de la tâche exécutée. Cela rend les tâches difficilement interchangeables et augmente ainsi considérablement la complexité des polituqes d’ordonnancement. De plus, le coût d’une migration – le déplacement d’une tâche en cours d’exécution – d’un processeur à un autre est élevé, ce qui peut rendre les polituqes d’ordonnancement peu efficaces en pratique.Dans cette thèse, deux voies sont explorées pour tirer parti des possibilités offertes par ces plates-formes hétérogènes. Tout d’abord, en proposant un ordonnanceur dit global, qui permet une utilisation théorique de l’entièreté de la plates-forme. Pour atteindre cet objectif, nous isolons différents sous-problèmes, en suivant un schéma établi par la littérature existante. Pour chaque sous-problème, nous proposons une amélioration significative par rapport à l’état de l’art. L’ensemble constitue un nouvel ordonnanceur. Une évaluation empirique montre que ses performances sont bien supérieures à celles des ordonnanceurs existants. De plus, la polituqe d’ordonnancement proposée a une meilleure applicabilité, car elle réduit le nombre de migrations d’un processeur à un autre.Une deuxième voie explorée est le paradigme d’application dite multimode. Nous proposons ici le premier modèle où le matériel comme le logiciel peuvent être modifiés pendant l’exécution de l’application, afin de s’adapter au contexte dans lequel elle se trouve. Enfin, deux nouveaux protocoles utilisant ce modèle sont proposés et évalués. Il est montré théoriquement et empiriquement que ces protocoles présentent une faible complexité et de bonnes performances, et correspondent donc au besoin d’applications réelles. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
24

Approche Unifiée de l'Analyse et de la Commande des Systèmes par Optimisation LMI

Scorletti, Gérard 11 June 1997 (has links) (PDF)
L'optimisation convexe sur des contraintes inégalités matricielles affines (plus connues sous le sigle LMI) apparaît dans de nombreux problèmes d'Automatique. Dans cette thèse, on propose une méthodologie générale de mise de problèmes d'Automatique sous forme de problèmes d'optimisation. Inscrite dans l'approche entrée/sortie, elle repose sur la modélisation de systèmes comme des interconnexions de sous systèmes, sur la caractérisation des signaux entrée/sortie de ces derniers par des inégalités quadratiques et sur l'obtention de critères de stabilité et de performance par application d'arguments du type séparation des graphes et S procédure. Cette méthodologie est mise en oeuvre pour démontrer des théorèmes qui unifient et étendent des résultats d'analyse et de commande des systèmes. Parmi les nouveaux résultats, on peut citer la commande par séquencement de gains (qui a motivé cette thèse), la commande décentralisée, la commande avec saturation et la commande ``quadratique'' de systèmes non linéaires rationnels, etc... L'analyse de la robustesse est étendue à des classes d'incertitudes plus importantes. Une description plus fine est proposée et de nouveaux objectifs de performance sont aisément traités en caractérisant le comportement entrée/sortie du système incertain par des inégalités quadratiques. Cela permet d'aborder des problèmes comme l'analyse hiérarchisée de systèmes incertains de grande dimension. L'extension aux systèmes non linéaires, non stationnaires est ensuite considérée avec des critères pour des paramètres incertains non stationnaires (vitesse bornée, bornée en moyenne). Enfin, certains outils sont appliqués à un problème de pilotage de missile. On montre que la robustesse et la performance sont obtenues lorsque le missile, décrit par un modèle non linéaire, est bouclé par un correcteur proportionnel intégral. Un correcteur obtenu par la méthode de séquencement de gains permet d'améliorer les performances de la commande.
25

Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware Parallelism

Paolillo, Antonio 17 October 2018 (has links)
Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware Parallelism. Nowadays, embedded systems are part of our daily lives.Some of these systems are called safetycritical and have strong requirements in terms of safety and reliability.Additionally, these systems must have a long autonomy, good performance and minimal costs.Finally, these systems must exhibit predictable behaviour and provide their results within firm deadlines.When these different constraints are combined in the requirement specifications of a modern product, classic design techniques making use of single core platforms are not sufficient.Academic research in the field of real-time embedded systems has produced numerous techniques to exploit the capabilities of modern hardware platforms.These techniques are often based on using parallelism inherently present in modern hardware to improve the system performance while reducing the platform power dissipation.However, very few systems existing on the market are using these state-of-the-art techniques.Moreover, few of these techniques have been validated in the context of practical experiments.In this thesis, we realise the study of operating system level techniques allowing to exploit hardware parallelism through the implementation of parallel software in order to boost the performance of target applications and to reduce the overall system energy consumption while satisfying strict application timing requirements.We detail the theoretical foundations of the ideas applied in the dissertation and validate these ideas through experimental work.To this aim, we use a new Real-Time Operating System kernel written in the context of the creation of a spin-off of the Université libre de Bruxelles.Our experiments are based on the execution of applications on the operating system which run on a real-world platform for embedded systems.Our results show that, compared to traditional design techniques, using parallel and power-aware scheduling techniques in order to exploit hardware and software parallelism allows to execute embedded applications with substantial savings in terms of energy consumption.We present future and ongoing research work that exploit the capabilities of recent embedded platforms.These platforms combine multi-core processors and reconfigurable hardware logic, allowing further improvements in performance and energy consumption. / Optimisation de Métriques de Performances de Systèmes Embarqués Temps Réel Durs par utilisation du Parallélisme Logiciel et Matériel. De nos jours, les systèmes embarqués font partie intégrante de notre quotidien.Certains de ces systèmes, appelés systèmes critiques, sont soumis à de fortes contraintes de fiabilité et de robustesse.De plus, des contraintes de coûts, d’autonomie et de performances s’additionnent à la fiabilité.Enfin, ces systèmes doivent très souvent respecter des délais très stricts de façon prédictible.Lorsque ces différentes contraintes sont combinées dans le cahier de charge d’un produit, les techniques classiques de conception consistant à utiliser un seul cœur d’un processeur ne suffisent plus.La recherche académique dans le domaine des systèmes embarqués temps réel a produit de nombreuses techniques pour exploiter les plate-formes modernes.Ces techniques sont souvent basées sur l’exploitation du parallélisme inhérent au matériel pour améliorer les performances du système et la puissance dissipée par la plate-forme.Cependant, peu de systèmes existant sur le marché exploitent ces techniques de la littérature et peu de ces techniques ont été validées dans le cadre d’expériences pratiques.Dans cette thèse, nous réalisons l’étude des techniques, au niveau du système d’exploitation, permettant l’exploitation du parallélisme matériel par l’implémentation de logiciels parallèles afin de maximiser les performances et réduire l’impact sur l’énergie consommée tout en satisfaisant les contraintes temporelles strictes du cahier de charge applicatif. Nous détaillons les fondements théoriques des idées qui sont appliquées dans la dissertation et nous les validons par des travaux expérimentaux.A ces fins, nous utilisons le nouveau noyau d’un système d’exploitation écrit dans le cadre de la création d’une spin-off de l’Université libre de Bruxelles.Nos expériences, basées sur l’exécution d’applications sur le système d’exploitation qui s’exécute lui-même sur une plate-forme embarquée réelle, montre que l’utilisation de techniques d’ordonnancement exploitant le parallélisme matériel et logiciel permet de larges économies d’énergie consommée lors de l’exécution d’applications embarquées.De futurs travaux en cours de réalisation sont présentés.Ceux-ci exploitent des plate-formes innovantes qui combinent processeurs multi-cœurs et matériel reconfigurable, permettant d’aller encore plus loin dans l’amélioration des performances et les gains énergétiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
26

Contribution à la modélisation mathématique pour la simulation et l'observation d'états des bioprocédés

Bogaerts, Philippe 21 April 1999 (has links)
Les bioprocédés ont connu un essor considérable au cours de ces dernières années et sont promis à un bel avenir. Qu'il s'agisse de la production de vaccins, de la fermentation de levures pour l'industrie alimentaire ou encore de l'épuration biologique des eaux usées, les applications sont nombreuses et les produits sont d'un intérêt capital pour l'être humain. Étant donnés le coût et le temps de mise en oeuvre de ces procédés, il est particulièrement utile de construire des simulateurs permettant de reproduire le comportement macroscopique des cultures cellulaires utilisées. Ces simulateurs peuvent servir à déterminer des conditions optimales de fonctionnement (en fonction des critères de l'utilisateur) et à tester certains outils (régulateurs, capteurs logiciels, etc.). Par ailleurs, il est nécessaire, pour le suivi et la régulation de ces procédés, de disposer de grandeurs mesurées (concentrations cellulaires, en substrats, en le produit d'intérêt, etc.). Les problèmes liés à la mesure matérielle de ces grandeurs sont nombreux: coût des capteurs, destruction des échantillons, longues périodes d'échantillonnage, temps d'analyse élevés, etc. Il est dès lors utile de construire des observateurs d'états (ou capteurs logiciels) fournissant une estimation en temps continu de grandeurs non mesurées sur la base d'un modèle mathématique et de certaines mesures matérielles.<p><p>Les modèles mathématiques sont nécessaires pour la synthèse des deux types d'outils envisagés dans ce travail (simulateurs et capteurs logiciels). Les modèles utilisés consistent en les bilans massiques des constituants apparaissant dans le schéma réactionnel, ce dernier contenant les réactions essentielles pour la description des phénomènes à l'échelle macroscopique. Au sein de ces bilans massiques, une nouvelle structure générale de modèle cinétique est proposée, possédant un certain nombre de propriétés intéressantes, telles l'interprétation physique des paramètres cinétiques, les concentrations définies positives sous certaines conditions, la garantie de stabilité entrées bornées - états bornés, ou encore la possibilité de linéarisation en les paramètres à estimer.<p><p>Une méthodologie générale d'estimation paramétrique est proposée, afin d'identifier les coefficients pseudo-stoechiométriques, les coefficients cinétiques et certains paramètres expérimentaux (concentrations initiales des cultures). Cette méthodologie possède un caractère systématique, prend en compte les erreurs de mesure sur l'ensemble des signaux (y compris à l'instant initial), fournit à l'utilisateur la covariance des erreurs d'estimation paramétrique, prend en compte intrinsèquement les contraintes de signe sur les paramètres, fournit une estimation des erreurs de simulation, permet de réduire le nombre d'équations différentielles au sein du modèle, etc. La mise en oeuvre et l'intérêt de ces outils sont illustrés en simulation (cultures bactériennes) et dans le cas d'une application réelle (cultures de cellules animales CHO).<p><p>La première catégorie d'observateurs d'états étudiée dans ce travail est celle des observateurs utilisant pleinement le modèle cinétique. L'observation d'états basée sur l'identification des conditions initiales les plus vraisemblables est plus particulièrement analysée. Elle consiste à estimer en temps continu l'entièreté de l'état par intégration d'un modèle de simulation au départ des conditions initiales les plus vraisemblables. Ces dernières sont identifiées à chaque nouvel instant de mesure sur la base de toute l'information disponible jusqu'à cet instant. Certaines propriétés mathématiques sont étudiées (dont une comparaison avec le filtre de Kalman) et un certain nombre d'extensions de la méthode sont proposées (dont une version récurrente qui ne nécessite plus de résoudre un problème d'optimisation non linéaire à chaque nouvel instant de mesure). Ces outils sont à nouveau illustrés dans le cadre des cultures de cellules animales CHO, et se basent sur les modèles de simulation développés dans la première partie du travail.<p><p>Étant donné les risques de divergence des observateurs de cette première catégorie lorsque la qualité du modèle cinétique n'est pas suffisante, une seconde catégorie est envisagée, constituée des observateurs utilisant partiellement le modèle cinétique. Dans ce contexte, un nouvelle technique est proposée consistant en un observateur hybride entre le filtre de Kalman étendu (utilisant pleinement le modèle cinétique) et l'observateur asymptotique de Bastin et Dochain (n'utilisant pas du tout le modèle cinétique). Cette structure estime (conjointement avec l'état du système) un degré de confiance en le modèle cinétique. Elle est capable d'évoluer de façon progressive, en fonction de ce degré de confiance, entre les deux solutions extrêmes (filtre de Kalman et observateur asymptotique), tirant ainsi parti des avantages respectifs de ces deux méthodes selon les conditions opératoires et la qualité du modèle cinétique. Ces outils sont validés sur des cultures bactériennes simulées.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
27

Use of simulators for side-channel analysis: Leakage detection and analysis of cryptographic systems in early stages of development

Veshchikov, Nikita 23 August 2017 (has links) (PDF)
Cryptography is the foundation of modern IT security,it provides algorithms and protocols that can be usedfor secure communications. Cryptographic algorithmsensure properties such as confidentiality and data integrity.Confidentiality can be ensured using encryption algorithms.Encryption algorithms require a secret information called a key.These algorithms are implemented in cryptographic devices.There exist many types of attacks against such cryptosystems,the main goal of these attacks is the extraction of the secret key.Side-channel attacks are among the strongest types of attacksagainst cryptosystems. Side-channel attacks focus on the attacked device, they measure its physicalproperties in order to extract the secret key. Thus, these attacks targetweaknesses in an implementation of an algorithm rather than the abstract algorithm itself.Power analysis is a type of side-channel attacks that can be used to extract a secretkey from a cryptosystem through the analysis of its power consumption whilethe target device executes an encryption algorithm. We can say that the secret information is leaking from the device through itspower consumption. One of the biggest challenges in the domain of side-channel analysisis the evaluation of a device from the perspective of side-channel attacksor in other words the detection of information leakage.A device can be subject to several sources of information leakageand it is actually relatively easy to find just one side-channel attack that works(by exploiting just one source of leakage),however it is very difficult to find all sources of information leakage or to show that there is no information leakage in the givenimplementation of an encryption algorithm. Evaluators use various statistical tests during the analysis of a cryptographic device to checkthat it does not leak the secret key. However, in order to performsuch tests the evaluation lab needs the device to acquire the measurementsand analyse them. Unfortunately, the development process of cryptographicsystems is rather long and has to go through several stages. Thus, an information leakagethat can lead to a side-channel attackcan be discovered by an evaluation lab at the very last stage using the finalproduct. In such case, the whole process has to be restarted in order to fix the issue,this can lead to significant time and budget overheads. The rationale is that developers of cryptographic systems would like to be able to detect issues related to side-channel analysis during the development of the system,preferably on the early stages of its development. However, it is far from beinga trivial task because the end product is not yet available andthe nature of side-channel attacks is such that it exploits the properties ofthe final version of the cryptographic device that is actually available to the end user. The goal of this work is to show how simulators can be used for the detection of issues related to side-channel analysis during the development of cryptosystems.This work lists the advantages of simulators compared to physical experimentsand suggests a classification of simulators for side-channel analysis.This work presents existing simulators that were created for side-channel analysis,more specifically we show that there is a lack of available simulation toolsand that therefore simulators are rarely used in the domain. We present threenew open-source simulators called Silk, Ascold and Savrasca.These simulators are working at different levels of abstraction,they can be used by developers to perform side-channel analysisof the device during different stages of development of a cryptosystem.We show how Silk can be used during the preliminary analysisand development of cryptographic algorithms using simulations based on high level of abstraction source code. We used it to compare S-boxesas well as to compare shuffling countermeasures against side-channel analysis.Then, we present the tool called Ascold that can be used to find side-channel leakagein implementations with masking countermeasure using the analysis of assembly code of the encryption.Finally, we demonstrate how our simulator called Savrasca can be used to find side-channelleakage using simulations based on compiled executable binaries. We use Savrascato analyse masked implementation of a well-known contest on side-channel analysis (the 4th edition of DPA Contest),as a result we demonstrate that the analysed implementation contains a previouslyundiscovered information leakage. Through this work we alsocompared results of our simulated experiments with real experiments comingfrom implementations on microcontrollers and showed that issues found using our simulatorsare also present in the final product. Overall, this work emphasises that simulatorsare very useful for the detection of side-channel leakages in early stages of developmentof cryptographic systems. / Option Informatique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
28

Application de l'analyse-système à l'exploitation des données hydrométriques et isotopiques en hydrologie

Calmels, Pierre 18 January 1985 (has links) (PDF)
La détermination des modalités de transfert de l'eau dans un aquifère et la connaissance des volumes d'eau qu'il contient , fait l'objet de nombreuses études en hydrologie. Pour obtenir ces informations, l'hydrogéologue cherche à représenter le transfert de l'eau par une fonction simple qui lui permettrait de prévoir la réponse du milieu souterrain aux stimuli d'entrée , tels que les pluies ou les pollutions, de connaître le temps de séjour moyen de l'eau dans la matrice et par suite de calculer les volumes d'eau contenus dans celle-ci . Dans cette étude, il est proposé de considérer un aquifère comme une "boite noire" dont on ne connait que les fonctions d'entrée et de sortie , et de lui appliquer les méthodes de l'analyse-système qui se sont développées en électronique. A partir de deux hypothèses , vérifiées sur un modèle physique de laboratoire, il est montré qu'un aquifère dont l'entrée est représentée par la surface du bassin hydrologique , peut être assimilée à un système linéaire dont la réponse impulsionnelle est une fonction exponentielle unlque. L'argument de cette exponentielle définit le temps de séjour moyen de l'eau dans le système et le produit du débit moyen des écoulements par ce temps moyen permet de calculer le volume d'eau contenu dans l'aquifère. L'application de cette méthode sur un bassin hydrologique situé à St Genis, Hautes Alpes, s'est avérée satisfaisante . Elle permet de définir une réponse impulsionnelle constituée de deux fonctions exponentielles représentatives de deux systèmes qui composent l'aquifère du bassin et d'en calculer les volumes utiles . L'utilisation des données isotopiques du milieu, nécessairement pondérées par les débits, apparaît comme un supplément d'information indispensable à la bonne détermination de la réponse impulsionnelle et à l'estimation des réserves de l'aquifère.

Page generated in 0.0665 seconds