• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 391
  • 202
  • 98
  • 64
  • 9
  • 3
  • 2
  • 1
  • Tagged with
  • 764
  • 569
  • 426
  • 300
  • 295
  • 295
  • 160
  • 140
  • 131
  • 84
  • 77
  • 75
  • 75
  • 72
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

On Safe Usage of Shared Data in Safety-Critical Control Systems

Jäger, Georg 16 September 2022 (has links)
Prognostiziert durch Konzepte der Industrie 4.0 und den Cyber-Physischen-Systemen, können autonome Systeme zukünftig dynamisch auf Datenquellen in ihrer Umgebung zugreifen. Während die gemeinsame Nutzung solcher Datenquellen ein enormes Performanzpotenzial bietet, stellt die benötigte Systemarchitektur vorherrschende Sicherheitsprozesse vor neue Herausforderungen. Die vorliegende Arbeit motiviert zunächst, dass diese nur zur Laufzeit des Systems adressiert werden könne, bevor sie daraus zwei zentrale Ziele ableitet und verfolgt. Zum einen wird ein Beschreibungsmodel für die Darstellung von Fehlercharakteristika gemeinsam genutzter Daten vorgestellt. Dieses generische Fehlermodell erlaubt es zum anderen eine Sicherheitsanalyse zu definieren, die eine spezifische, dynamische Systemkomposition zur Laufzeit mit Hinblick auf die zu erwartenden Unsicherheiten bewerten kann. Die als Region of Safety betitelte Analysestrategie erlaubt, in Kombination mit dem generischen Fehlermodell, die Sicherheit der auf gemeinsam genutzten Daten basierenden Kollisionsvermeidungsstrategie zweier Roboter noch zur Designzeit zu garantieren, obwohl die spezifischen Fehlercharakteristika der Daten erst zur Laufzeit bekannt werden.:List of Acronyms List of Theorems List of Definitions List of Figures List of Tables 1. Introduction – Safety in Future Smart Industries 1.1. The Example of Smart Warehouses 1.2. Functional Safety Standards 1.2.1. Overview of Functional Safety Standards 1.2.2. IEC 61508 1.3. Scope of this Thesis 1.3.1. Objectives 1.3.2. Contributions 1.3.3. Outline 1.4. Related Publications by the Author 1.5. Mathematical Notation 2. State of the Art 2.1. State of the Art in Run-Time Safety Assessment 2.1.1. Approaches at the Functional Level 2.1.2. Approaches at the Technical Level 2.1.3. Conclusions 2.2. State of the Art in Failure Modeling 2.2.1. The Definition of (Sensor) Failure Model 2.2.2. Interval-Based Failure Modeling 2.2.3. Distribution-Based Failure Modeling 2.2.4. Failure-Type-Based Failure Modeling 2.2.5. Conclusions 2.3. Conclusions from the State of the Art 3. Generic Failure Model 3.1. Defining the Generic Failure Model 3.1.1. Time- and Value-Correlated Random Distribution 3.1.2. A Failure Type’s Failure Amplitudes 3.1.3. A Failure Type’s State Function 3.1.4. Polynomial Representation of a Failure Type 3.1.5. Discussion on the Fulfillment of the Predefined Criteria 3.2. Converting a Generic Failure Model to an Interval 3.2.1. Converting a Time- and Value-Correlated Random Distribution 3.2.2. A Failure Type’s Interval 3.3. Processing Chain for Generating Generic Failure Models 3.3.1. Identifying Failure Types 3.3.2. Parameterizing Failure Types 3.3.3. Confidence Calculation 3.4. Exemplary Application to Artificial Failure Characteristics 3.4.1. Generating the Artificial Data Set – Manually Designing GFMs 3.4.2. Identifying Failure Types 3.4.3. Parameterizing Failure Types 3.4.4. Confidence Calculation 3.4.5. Comparison to State-of-the-Art Models 3.5. Summary 4. Region of Safety 4.1. Explicitly Modeling Uncertainties for Dynamically Composed Systems 4.2. Regions of Safety for Dynamically Composed Systems 4.2.1. Estimating Regions of Attraction in Presence of Uncertainty 4.2.2. Introducing the Concept of Region of Safety 4.2.3. Discussion on the Fulfillment of the Predefined Criteria 4.3. Evaluating the Concept of Region of Safety 4.3.1. Defining the Scenario and Considered Uncertainties 4.3.2. Designing a Control Lyapunov Function 4.3.3. Determining an Appropriate Value for λc 4.3.4. The Effect of Varying Sensor Failures on Regions of Safety 4.4. Summary 5. Evaluation and Integration 5.1. Multi-Robot Collision Avoidance 5.1.1. Assumptions 5.1.2. Design of the Circle and Navigation Scenarios 5.1.3. Kinematics 5.1.4. Control Policy 5.1.5. Intention Modeling by Model Uncertainty 5.1.6. Fusing Regions of Safety of Multiple Stability Points 5.2. Failure Modeling for Shared Data – A Marker Detection Failure Model 5.2.1. Data Acquisition 5.2.2. Failure Model Generation 5.2.3. Evaluating the Quality of the Failure Model 5.3. Safe Handling of Shared Data in a Collision Avoidance Strategy 5.3.1. Configuration for Region of Safety Estimation 5.3.2. Estimating Regions of Safety 5.3.3. Evaluation Using the Circle Scenario 5.3.4. Evaluation Using the Navigation Scenario 5.4. Summary 6. Conclusions and Future Work 6.1. Summary 6.2. Limitations and Future Work 6.2.1. Limitations and Future Work on the Generic Failure Model 6.2.2. Limitations and Future Work on Region of Safety 6.2.3. Future Work on Safety in Dynamically Composed Systems Appendices A. Defining Factors of Risk According to IEC 61508 B. Evaluation Results for the Identification Stage C. Overview of Failure Amplitudes of Marker Detection Results Bibliography / The concepts of Cyber-Physical-Systems and Industry 4.0 prognosticate autonomous systems to integrate sources of shared data dynamically at their run-time. While this promises substantial increases in their performance, the openness of the required system architecture poses new challenges to processes guaranteeing their safety. This thesis firstly motivates that these can be addressed only at their run-time, before it derives and pursues two corresponding goals. Firstly, a model for describing failure characteristics of shared data is presented. Secondly, this Generic Failure Model is built upon to define a run-time safety assessment methodology that enables analyzing dynamic system compositions integrating shared data with respect to the expected uncertainties at run-time. This analysis strategy, entitled Region of Safety, allows in combination with the generic failure model to guarantee the safety of robots sharing position data for collision avoidance already at design-time, although specific failure characteristics become available only at run-time.:List of Acronyms List of Theorems List of Definitions List of Figures List of Tables 1. Introduction – Safety in Future Smart Industries 1.1. The Example of Smart Warehouses 1.2. Functional Safety Standards 1.2.1. Overview of Functional Safety Standards 1.2.2. IEC 61508 1.3. Scope of this Thesis 1.3.1. Objectives 1.3.2. Contributions 1.3.3. Outline 1.4. Related Publications by the Author 1.5. Mathematical Notation 2. State of the Art 2.1. State of the Art in Run-Time Safety Assessment 2.1.1. Approaches at the Functional Level 2.1.2. Approaches at the Technical Level 2.1.3. Conclusions 2.2. State of the Art in Failure Modeling 2.2.1. The Definition of (Sensor) Failure Model 2.2.2. Interval-Based Failure Modeling 2.2.3. Distribution-Based Failure Modeling 2.2.4. Failure-Type-Based Failure Modeling 2.2.5. Conclusions 2.3. Conclusions from the State of the Art 3. Generic Failure Model 3.1. Defining the Generic Failure Model 3.1.1. Time- and Value-Correlated Random Distribution 3.1.2. A Failure Type’s Failure Amplitudes 3.1.3. A Failure Type’s State Function 3.1.4. Polynomial Representation of a Failure Type 3.1.5. Discussion on the Fulfillment of the Predefined Criteria 3.2. Converting a Generic Failure Model to an Interval 3.2.1. Converting a Time- and Value-Correlated Random Distribution 3.2.2. A Failure Type’s Interval 3.3. Processing Chain for Generating Generic Failure Models 3.3.1. Identifying Failure Types 3.3.2. Parameterizing Failure Types 3.3.3. Confidence Calculation 3.4. Exemplary Application to Artificial Failure Characteristics 3.4.1. Generating the Artificial Data Set – Manually Designing GFMs 3.4.2. Identifying Failure Types 3.4.3. Parameterizing Failure Types 3.4.4. Confidence Calculation 3.4.5. Comparison to State-of-the-Art Models 3.5. Summary 4. Region of Safety 4.1. Explicitly Modeling Uncertainties for Dynamically Composed Systems 4.2. Regions of Safety for Dynamically Composed Systems 4.2.1. Estimating Regions of Attraction in Presence of Uncertainty 4.2.2. Introducing the Concept of Region of Safety 4.2.3. Discussion on the Fulfillment of the Predefined Criteria 4.3. Evaluating the Concept of Region of Safety 4.3.1. Defining the Scenario and Considered Uncertainties 4.3.2. Designing a Control Lyapunov Function 4.3.3. Determining an Appropriate Value for λc 4.3.4. The Effect of Varying Sensor Failures on Regions of Safety 4.4. Summary 5. Evaluation and Integration 5.1. Multi-Robot Collision Avoidance 5.1.1. Assumptions 5.1.2. Design of the Circle and Navigation Scenarios 5.1.3. Kinematics 5.1.4. Control Policy 5.1.5. Intention Modeling by Model Uncertainty 5.1.6. Fusing Regions of Safety of Multiple Stability Points 5.2. Failure Modeling for Shared Data – A Marker Detection Failure Model 5.2.1. Data Acquisition 5.2.2. Failure Model Generation 5.2.3. Evaluating the Quality of the Failure Model 5.3. Safe Handling of Shared Data in a Collision Avoidance Strategy 5.3.1. Configuration for Region of Safety Estimation 5.3.2. Estimating Regions of Safety 5.3.3. Evaluation Using the Circle Scenario 5.3.4. Evaluation Using the Navigation Scenario 5.4. Summary 6. Conclusions and Future Work 6.1. Summary 6.2. Limitations and Future Work 6.2.1. Limitations and Future Work on the Generic Failure Model 6.2.2. Limitations and Future Work on Region of Safety 6.2.3. Future Work on Safety in Dynamically Composed Systems Appendices A. Defining Factors of Risk According to IEC 61508 B. Evaluation Results for the Identification Stage C. Overview of Failure Amplitudes of Marker Detection Results Bibliography
162

Analyzing and Enhancing Routing Protocols for Friend-to-Friend Overlays

Roos, Stefanie 09 August 2016 (has links) (PDF)
The threat of surveillance by governmental and industrial parties is more eminent than ever. As communication moves into the digital domain, the advances in automatic assessment and interpretation of enormous amounts of data enable tracking of millions of people, recording and monitoring their private life with an unprecedented accurateness. The knowledge of such an all-encompassing loss of privacy affects the behavior of individuals, inducing various degrees of (self-)censorship and anxiety. Furthermore, the monopoly of a few large-scale organizations on digital communication enables global censorship and manipulation of public opinion. Thus, the current situation undermines the freedom of speech to a detrimental degree and threatens the foundations of modern society. Anonymous and censorship-resistant communication systems are hence of utmost importance to circumvent constant surveillance. However, existing systems are highly vulnerable to infiltration and sabotage. In particular, Sybil attacks, i.e., powerful parties inserting a large number of fake identities into the system, enable malicious parties to observe and possibly manipulate a large fraction of the communication within the system. Friend-to-friend (F2F) overlays, which restrict direct communication to parties sharing a real-world trust relationship, are a promising countermeasure to Sybil attacks, since the requirement of establishing real-world trust increases the cost of infiltration drastically. Yet, existing F2F overlays suffer from a low performance, are vulnerable to denial-of-service attacks, or fail to provide anonymity. Our first contribution in this thesis is concerned with an in-depth analysis of the concepts underlying the design of state-of-the-art F2F overlays. In the course of this analysis, we first extend the existing evaluation methods considerably, hence providing tools for both our and future research in the area of F2F overlays and distributed systems in general. Based on the novel methodology, we prove that existing approaches are inherently unable to offer acceptable delays without either requiring exhaustive maintenance costs or enabling denial-of-service attacks and de-anonymization. Consequentially, our second contribution lies in the design and evaluation of a novel concept for F2F overlays based on insights of the prior in-depth analysis. Our previous analysis has revealed that greedy embeddings allow highly efficient communication in arbitrary connectivity-restricted overlays by addressing participants through coordinates and adapting these coordinates to the overlay structure. However, greedy embeddings in their original form reveal the identity of the communicating parties and fail to provide the necessary resilience in the presence of dynamic and possibly malicious users. Therefore, we present a privacy-preserving communication protocol for greedy embeddings based on anonymous return addresses rather than identifying node coordinates. Furthermore, we enhance the communication’s robustness and attack-resistance by using multiple parallel embeddings and alternative algorithms for message delivery. We show that our approach achieves a low communication complexity. By replacing the coordinates with anonymous addresses, we furthermore provably achieve anonymity in the form of plausible deniability against an internal local adversary. Complementary, our simulation study on real-world data indicates that our approach is highly efficient and effectively mitigates the impact of failures as well as powerful denial-of-service attacks. Our fundamental results open new possibilities for anonymous and censorship-resistant applications. / Die Bedrohung der Überwachung durch staatliche oder kommerzielle Stellen ist ein drängendes Problem der modernen Gesellschaft. Heutzutage findet Kommunikation vermehrt über digitale Kanäle statt. Die so verfügbaren Daten über das Kommunikationsverhalten eines Großteils der Bevölkerung in Kombination mit den Möglichkeiten im Bereich der automatisierten Verarbeitung solcher Daten erlauben das großflächige Tracking von Millionen an Personen, deren Privatleben mit noch nie da gewesener Genauigkeit aufgezeichnet und beobachtet werden kann. Das Wissen über diese allumfassende Überwachung verändert das individuelle Verhalten und führt so zu (Selbst-)zensur sowie Ängsten. Des weiteren ermöglicht die Monopolstellung einiger weniger Internetkonzernen globale Zensur und Manipulation der öffentlichen Meinung. Deshalb stellt die momentane Situation eine drastische Einschränkung der Meinungsfreiheit dar und bedroht die Grundfesten der modernen Gesellschaft. Systeme zur anonymen und zensurresistenten Kommunikation sind daher von ungemeiner Wichtigkeit. Jedoch sind die momentanen System anfällig gegen Sabotage. Insbesondere ermöglichen es Sybil-Angriffe, bei denen ein Angreifer eine große Anzahl an gefälschten Teilnehmern in ein System einschleust und so einen großen Teil der Kommunikation kontrolliert, Kommunikation innerhalb eines solchen Systems zu beobachten und zu manipulieren. F2F Overlays dagegen erlauben nur direkte Kommunikation zwischen Teilnehmern, die eine Vertrauensbeziehung in der realen Welt teilen. Dadurch erschweren F2F Overlays das Eindringen von Angreifern in das System entscheidend und verringern so den Einfluss von Sybil-Angriffen. Allerdings leiden die existierenden F2F Overlays an geringer Leistungsfähigkeit, Anfälligkeit gegen Denial-of-Service Angriffe oder fehlender Anonymität. Der erste Beitrag dieser Arbeit liegt daher in der fokussierten Analyse der Konzepte, die in den momentanen F2F Overlays zum Einsatz kommen. Im Zuge dieser Arbeit erweitern wir zunächst die existierenden Evaluationsmethoden entscheidend und erarbeiten so Methoden, die Grundlagen für unsere sowie zukünftige Forschung in diesem Bereich bilden. Basierend auf diesen neuen Evaluationsmethoden zeigen wir, dass die existierenden Ansätze grundlegend nicht fähig sind, akzeptable Antwortzeiten bereitzustellen ohne im Zuge dessen enorme Instandhaltungskosten oder Anfälligkeiten gegen Angriffe in Kauf zu nehmen. Folglich besteht unser zweiter Beitrag in der Entwicklung und Evaluierung eines neuen Konzeptes für F2F Overlays, basierenden auf den Erkenntnissen der vorangehenden Analyse. Insbesondere ergab sich in der vorangehenden Evaluation, dass Greedy Embeddings hoch-effiziente Kommunikation erlauben indem sie Teilnehmer durch Koordinaten adressieren und diese an die Struktur des Overlays anpassen. Jedoch sind Greedy Embeddings in ihrer ursprünglichen Form nicht auf anonyme Kommunikation mit einer dynamischen Teilnehmermengen und potentiellen Angreifern ausgelegt. Daher präsentieren wir ein Privätssphäre-schützenden Kommunikationsprotokoll für F2F Overlays, in dem die identifizierenden Koordinaten durch anonyme Adressen ersetzt werden. Des weiteren erhöhen wir die Resistenz der Kommunikation durch den Einsatz mehrerer Embeddings und alternativer Algorithmen zum Finden von Routen. Wir beweisen, dass unser Ansatz eine geringe Kommunikationskomplexität im Bezug auf die eigentliche Kommunikation sowie die Instandhaltung des Embeddings aufweist. Ferner zeigt unsere Simulationstudie, dass der Ansatz effiziente Kommunikation mit kurzen Antwortszeiten und geringer Instandhaltungskosten erreicht sowie den Einfluss von Ausfälle und Angriffe erfolgreich abschwächt. Unsere grundlegenden Ergebnisse eröffnen neue Möglichkeiten in der Entwicklung anonymer und zensurresistenter Anwendungen.
163

Contribution à l'étude probabiliste et numérique d'équations homogènes issues de la physique statistique : coagulation-fragmentation

Cepeda Chiluisa, Eduardo 03 June 2013 (has links) (PDF)
Cette thèse est consacrée à l'étude de systèmes subissant des coagulations et fragmentations successives. Dans le cas déterministe, on travaille avec des solutions mesures de l'équation de coagulation - multifragmentation. On étudie aussi la contrepartie stochastique de ces systèmes : les processus de coalescence - multifragmentation qui sont des processus de Markov à sauts. Dans un premier temps, on étudie le phénomène de coagulation seul. D'un côté, l'équation de Smoluchowski est une équation intégro-différentielle déterministe. D'un autre côté, on considère le processus stochastique connu sous le nom de Marcus-Lushnikov qui peut être regardé comme une approximation de la solution de l'équation de Smoluchowski. Nous étudions la vitesse de convergence par rapport à la distance de type Wassertein $d_{lambda}$ entre les mesures lorsque le nombre de particules tend vers l'infini. Notre étude est basée sur l'homogénéité du noyau de coagulation $K$.On complémente les calculs pour obtenir un résultat qui peut être interprété comme une généralisation de la Loi des Grands Nombres. Des conditions générales et suffisantes sur des mesures discrètes et continues $mu_0$ sont données pour qu'une suite de mesures $mu_0^n$ à support compact existe. On a donc trouvé un taux de convergence satisfaisant du processus Marcus-Lushnikov vers la solution de l'équation de Smoluchowski par rapport à la distance de type Wassertein $d_{lambda}$ égale à $1/sqrt{n}$.Dans un deuxième temps on présente les résultats des simulations ayant pour objectif de vérifier numériquement le taux de convergence déduit précédemment pour les noyaux de coagulation qui y sont étudiés. Finalement, on considère un modèle prenant en compte aussi un phénomène de fragmentation où un nombre infini de fragments à chaque dislocation est permis. Dans la première partie on considère le cas déterministe, dans la deuxième partie on étudie un processus stochastique qui peut être interprété comme la version macroscopique de ce modèle. D'abord, on considère l'équation intégro-partielle différentielle de coagulation - multifragmentation qui décrit l'évolution en temps de la concentration $mu_t(x)$ de particules de masse $x>0$. Le noyau de coagulation $K$ est supposé satisfaire une propriété de $lambda$-homogénéité pour $lambdain(0,1]$, le noyau de fragmentation $F$ est supposé borné et la mesure $beta$ sur l'ensemble de ratios est conservative. Lorsque le moment d'ordre $lambda$ de la condition initial $mu_0$ est fini, on est capable de montrer existence et unicité d'une solution mesure de l'équation de coagulation - multifragmentation. Ensuite, on considère la version stochastique de cette équation, le processus de coalescence - fragmentation est un processus de Markov càdlàg avec espace d'états l'ensemble de suites ordonnées et est défini par un générateur infinitésimal donné. On a utilisé une représentation Poissonienne de ce processus et la distance $delta_{lambda}$ entre deux processus. Grâce à cette méthode on est capable de construire une version finie de ce processus et de coupler deux processus démarrant d'états initiaux différents. Lorsque l'état initial possède un moment d'ordre $lambda$ fini, on prouve existence et unicité de ces processus comme la limite de suites de processus finis. Tout comme dans le cas déterministe, le noyau de coagulation $K$ est supposé satisfaire une propriété d'homogénéité. Les hypothèses concernant la mesure $beta$ sont exactement les mêmes. D'un autre côté, le noyau de fragmentation $F$ est supposé borné sur tout compact dans $(0,infty)$. Ce résultat est meilleur que celui du cas déterministe, cette amélioration est due à la propriété intrinsèque de masse totale non-explosive que possède un système avec un moment fini d'ordre $lambda$
164

An Overview of Event-based Facades for Modular Composition and Coordination of Multiple Applications

Malakuti, Somayeh 18 May 2016 (has links) (PDF)
Complex software systems are usually developed as systems of systems (SoS’s) in which multiple constituent applications are composed and coordinated to fulfill desired system-level requirements. The constituent applications must be augmented with suitable coordination-specific interfaces, through which they can participate in coordinated interactions. Such interfaces as well as coordination rules have a crosscutting nature. Therefore, to increase the reusability of the applications and to increase the comprehensibility of SoS’s, suitable mechanisms are required to modularize the coordination rules and interfaces from the constituent applications. We introduce a new abstraction named as architectural event modules (AEMs), which facilitate defining constituent applications and desired coordination rules as modules of SoS’s. AEMs augment the constituent applications with event-based facades to let them participate in coordinated interactions. We introduce the EventArch language in which the concept of AEMs is implemented, and illustrate its suitability using a case study.
165

Smart hydrogels as storage elements with dispensing functionality in discontinuous microfluidic systems

Haefner, Sebastian, Frank, Philipp, Elstner, Martin, Nowak, Johannes, Odenbach, Stefan, Richter, Andreas 07 April 2017 (has links) (PDF)
Smart hydrogels are useful elements in microfluidic systems because they respond to environmental stimuli and are capable of storing reagents. We present here a concept of using hydrogels (poly(N-isopropylacrylamide)) as an interface between continuous and discontinuous microfluidics. Their swelling and shrinking capabilities allow them to act as storage elements for reagents absorbed in the swelling process. When the swollen hydrogel collapses in an oil-filled channel, the incorporated water and molecules are expelled from the hydrogel and form a water reservoir. Water-in-oil droplets can be released from the reservoir generating different sized droplets depending on the flow regime at various oil flow rates (dispensing functionality). Different hydrogel sizes and microfluidic structures are discussed in terms of their storage and droplet formation capabilities. The time behaviour of the hydrogel element is investigated by dynamic swelling experiments and computational fluid dynamics simulations. By precise temperature control, the device acts as an active droplet generator and converts continuous to discontinuous flows.
166

Contribution à l'étude probabiliste et numérique d'équations homogènes issues de la physique statistique : coagulation-fragmentation / Contribution to the probabilistic and numerical study of homogeneous equations issued from statistical physics : coagulation-fragmentation

Cepeda Chiluisa, Eduardo 03 June 2013 (has links)
Cette thèse est consacrée à l'étude de systèmes subissant des coagulations et fragmentations successives. Dans le cas déterministe, on travaille avec des solutions mesures de l'équation de coagulation - multifragmentation. On étudie aussi la contrepartie stochastique de ces systèmes : les processus de coalescence - multifragmentation qui sont des processus de Markov à sauts. Dans un premier temps, on étudie le phénomène de coagulation seul. D'un côté, l'équation de Smoluchowski est une équation intégro-différentielle déterministe. D'un autre côté, on considère le processus stochastique connu sous le nom de Marcus-Lushnikov qui peut être regardé comme une approximation de la solution de l'équation de Smoluchowski. Nous étudions la vitesse de convergence par rapport à la distance de type Wassertein $d_{lambda}$ entre les mesures lorsque le nombre de particules tend vers l'infini. Notre étude est basée sur l'homogénéité du noyau de coagulation $K$.On complémente les calculs pour obtenir un résultat qui peut être interprété comme une généralisation de la Loi des Grands Nombres. Des conditions générales et suffisantes sur des mesures discrètes et continues $mu_0$ sont données pour qu'une suite de mesures $mu_0^n$ à support compact existe. On a donc trouvé un taux de convergence satisfaisant du processus Marcus-Lushnikov vers la solution de l'équation de Smoluchowski par rapport à la distance de type Wassertein $d_{lambda}$ égale à $1/sqrt{n}$.Dans un deuxième temps on présente les résultats des simulations ayant pour objectif de vérifier numériquement le taux de convergence déduit précédemment pour les noyaux de coagulation qui y sont étudiés. Finalement, on considère un modèle prenant en compte aussi un phénomène de fragmentation où un nombre infini de fragments à chaque dislocation est permis. Dans la première partie on considère le cas déterministe, dans la deuxième partie on étudie un processus stochastique qui peut être interprété comme la version macroscopique de ce modèle. D'abord, on considère l'équation intégro-partielle différentielle de coagulation - multifragmentation qui décrit l'évolution en temps de la concentration $mu_t(x)$ de particules de masse $x>0$. Le noyau de coagulation $K$ est supposé satisfaire une propriété de $lambda$-homogénéité pour $lambdain(0,1]$, le noyau de fragmentation $F$ est supposé borné et la mesure $beta$ sur l'ensemble de ratios est conservative. Lorsque le moment d'ordre $lambda$ de la condition initial $mu_0$ est fini, on est capable de montrer existence et unicité d'une solution mesure de l'équation de coagulation - multifragmentation. Ensuite, on considère la version stochastique de cette équation, le processus de coalescence - fragmentation est un processus de Markov càdlàg avec espace d'états l'ensemble de suites ordonnées et est défini par un générateur infinitésimal donné. On a utilisé une représentation Poissonienne de ce processus et la distance $delta_{lambda}$ entre deux processus. Grâce à cette méthode on est capable de construire une version finie de ce processus et de coupler deux processus démarrant d'états initiaux différents. Lorsque l'état initial possède un moment d'ordre $lambda$ fini, on prouve existence et unicité de ces processus comme la limite de suites de processus finis. Tout comme dans le cas déterministe, le noyau de coagulation $K$ est supposé satisfaire une propriété d'homogénéité. Les hypothèses concernant la mesure $beta$ sont exactement les mêmes. D'un autre côté, le noyau de fragmentation $F$ est supposé borné sur tout compact dans $(0,infty)$. Ce résultat est meilleur que celui du cas déterministe, cette amélioration est due à la propriété intrinsèque de masse totale non-explosive que possède un système avec un moment fini d'ordre $lambda$ / This thesis is devoted to the study of systems of particles undergoing successive coagulations and fragmentations. In the deterministic case, we deal with measure-valued solutions of the coagulation - multifragmentation equation. We also study, on the other hand, its stochastic counterpart: coalescence - multifragmentation Markov processes. A first chapter is devoted to the presentation of the mathematical tools used in this thesis and to the discussion on some topics treated in the following chapters. n Chapter 1 we only take into account coagulation phenomena. We consider the Smoluchowski equation (which is deterministic) and the Marcus-Lushnikov process (the stochastic version) which can be seen as an approximation of the Smoluchowski equation. We derive a satisfying rate of convergence of the Marcus-Lushnikov process toward the solution to Smoluchowski's coagulation equation. The result applies to a class of homogeneous-like coagulation kernels with homogeneity degree ranging in $(-infty,1]$. It relies on the use of the Wasserstein-type distance $d_{lambda}$, which has shown to be particularly well-adapted to coalescence phenomena. It was introduced and used in preceding works. In Chapter 2 we perform some simulations in order to confirm numerically the rate of convergence deduced in Chapter ref{Chapter1} for the kernels studied in this chapter.medskip Finally, in Chapter 3 we add a fragmentation phenomena and consider a coagulation multiple-fragmentation equation, which describes the concentration $c_t(x)$ of particles of mass $x in (0,infty)$ at the instant $t geq 0$. We study the existence and uniqueness of measured-valued solutions to this equation for homogeneous-like kernels of homogeneity parameter $lambda in (0,1]$ and bounded fragmentation kernels, although a possibly infinite number of fragments is considered. We also study a stochastic counterpart of this equation where a similar result is shown. We prove existence of such a process for a larger set of fragmentation kernels, namely we relax the boundedness hypothesis. In both cases, the initial state has a finite $lambda$-moment
167

La Question foncière et immobilière en Afrique subsaharienne : le cas de l'Adressage de la ville de San-Pedro (Sud-ouest de la Côte d'Ivoire) / Land and property issue in Sub-Saharan Africa : the case of Addressing San Pedro (South-western Côte d'Ivoire)

Berte, Nouvou 27 September 2013 (has links)
La ville africaine est marquée par un dualisme du modèle urbain. A côté de la ville moderne, administrée, équipée, " légale ", se développent les quartiers " illégaux ", sans équipements ni services urbains de base. La Côte d'Ivoire n'échappe pas à cette situation. Au lendemain des indépendances, elle entreprend la plus vaste opération de géographie volontaire en vue de réduire les injustices spatiales et les inégalités entre régions du Sud forestier ; « l'opération San-Pedro ». Objectif: mettre en valeur une région jusqu'alors totalement enclavée et en marge du « miracle économique ivoirien » ; le Sud-ouest du pays avec comme point d'ancrage, la création d'un port en eau profonde et d'une ville nouvelle. Malgré un projet d'urbanisme largement concerté, San-Pedro abrite aujourd'hui l'un des plus grands quartiers précaires de l'Afrique de l'ouest, favorisant ainsi une fragmentation de plus en plus accentuée de la ville. On observe aujourd'hui dans la ville, moins de 10% des occupations immobilières ayant faits l'objet d'un enregistrement cadastral et d'un droit foncier réel inattaquable. Ce faible pourcentage illustre l'échec du système de l'immatriculation foncière, seule voie légale de sécurisation foncière et immobilière. Cela pose la question fondamentale d'autres voies alternatives à la sécurisation foncière et immobilière. D'où le nécessaire développement des systèmes d'adressage qui, à l'absence de cadastre général, permet de localiser les parcelles à partir de l'espace public afin d'améliorer la connaissance du patrimoine immobilier c'est-à-dire assurer une identification publique des biens et des droits existants facilitant ainsi leur sécurisation et leur reconnaissance juridique ultérieure. A cet effet, de nombreux pays africains ont lancé ces dernières années, des opérations d'adressage visant à servir d'alternative au cadastre fiscal et aux projets difficiles et lents de « régularisation foncière » en promouvant des formes simplifiées et principalement littérales d'identification des parcelles.Cette thèse vise donc à établir à San-Pedro, l'intérêt de l'utilisation d'un système d'adressage dans les politiques de sécurisation foncière et immobilière. Elle cherche à comprendre les relations entre l'adressage et le "droit à la ville", c'est-à-dire le droit d'accès aux ressources urbaines notamment d'accès à la propriété et à la sécurité du logement. Pour appréhender ces relations, il s'avère nécessaire d'entreprendre l'analyse sous l'angle de la justice spatiale tout en soulignant l'importance de l'adressage comme outil de reconnaissance des droits fonciers locaux et surtout d'intégration sociale et économique des populations.Cette approche ouvre de nouvelles perspectives méthodologiques à exploiter dans la réforme des systèmes fonciers et cadastraux des pays africains. / The African city is marked by a dualism of urban model. Alongside the modern city, administered equipped "legal" grow "illegal" areas, no equipment or basic urban services. Côte d'Ivoire is no exception to this. After independence, she undertook the largest operation of voluntary geography to reduce spatial injustices and inequalities between regions of southern forest; "Operation San Pedro." Objective: To develop a region until completely enclosed and outside the "Ivorian economic miracle", the South-west of the country with as an anchor, creating a deep water port and a new city . Despite a largely collaborative project planning, San Pedro now houses one of the largest shantytowns of West Africa, thereby promoting fragmentation increasingly accentuated the city. We observe today in the city, less than 10% of real estate occupations having made the subject of a land registration and real property of an indefeasible right. This low percentage shows the failure of the system of land registration, the only legal way of land and property security. This raises the fundamental question of alternative ways to land and property security. Where necessary the development of addressing systems, the lack of general survey, used to locate plots from public space to improve the knowledge of the real estate that is to say, ensure public identification of property and existing rights and facilitating their security and their subsequent legal recognition. To this end, many African countries have launched in recent years, addressing operations to serve as an alternative to fiscal cadastre and slow and difficult projects "land regularization" promoting simplified forms and mostly literal identification plots.Therefore this thesis aims to establish in San Pedro, the interest of the use of an addressing system in the policies of land and property security. It seeks to understand the relationship between the address and the "right to the city", that is to say, the right of access to urban resources including homeownership and housing security. To understand these relationships, it is necessary to undertake an analysis in terms of spatial justice while emphasizing the importance of addressing as a tool for recognition of local land rights, especially social and economic integration populations.This approach opens new methodological perspectives to operate in the reform of land tenure and cadastral African
168

Structural properties of scale-free networks

Xulvi-Brunet, Ramon 09 March 2007 (has links)
Netzwerke sind überall, von der elektrischen Stromversorgung über die Biochemie der Zellen, das Internet bis hin zu sozialen Netzen. Netzwerke als mathematisches Konzept haben sich in den letzten Jahren zu einem wichtigen Werkzeug der Beschreibung komplexer Systeme entwickelt. Ihre grundlegende Eigenschaft ist, dass sie aus einer grö{ss}en Anzahl dynamischer Elemente bestehen, die sich gegenseitig beeinflussen und dabei nicht linear gekoppelt sind. Die moderne Netzwerkwissenschaft will die Wechselwirkung zwischen den einzelnen Untereinheiten erklären und davon ausgehend verständlich machen, auf welche Weise Prozesse auf einem Netzwerk stattfinden können. Zum Beispiel wird untersucht, wie die Struktur sozialer Netze die Ausbreitung von Information oder von Krankheiten beeinflusst, wie die Topologie des World Wide Web das Surf-Verhalten oder die Funktionalität von Suchmaschinen beeinträchtigt oder welche Auswirkungen die Hierarchie in ökologischen Nischen auf die Populationsdynamik der einzelnen Spezies hat. Darüber hinaus gilt es herauszufinden, welche grundlegenden Prinzipien der Evolution realer Netzwerke zugrunde liegen, das heißt nach welchen Regeln sich einerseits die Untereinheiten entwickeln und welchen Einfluss andererseits deren Vernetzung hat. Die vorliegende Dissertation beschäftigt sich sowohl mit der Topologie verschiedener Netzwerke als auch mit den der Evolution zugrunde liegenden Prinzipien. Schwerpunkte liegen dabei auf den folgenden zwei Aspekten: erstens dem Einfluss von so gennanten ``vertex-pair correlations'''', das heißt Korrelationen zwischen den Untereinheiten, auf die Topologie und zweitens der Auswirkung der Geographie auf die Netzwerkentwicklung. Es wird der bedeutende Einfluss aufgezeigt, den die Korrelationen auf wichtige statistische Größen der Netzwerke haben. Weiterhin analysieren wir die Perkolationseigenschaften, die Aufschluss über die Empfindlichkeit gegenüber Störungen in der Vernetzung geben. Damit können zum Beispiel Fragen aus der Epidemiologie diskutiert werden. Es zeigt sich, dass die Topologie vieler Netzwerke und ihre Perkolationseigenschaften deutlich von Korrelationen beeinflusst werden. Schließlich untersuchen wir im letzten Teil dieser Arbeit, wie die Einbettung von Netzwerken in eine endlich-dimensionale Geographie auf die Modellierung und Entwicklung Web-ähnlicher Systeme Einfluss nimmt. / Networks are all around us, from electrical power grids to the biochemistry of cells, from the Internet to social webs. The mathematical concept of network has recently been turned into an important tool for describing complex systems, whose principal characteristic is that they consist of a large number of mutually interacting dynamical parts which are coupled in a nonlinear fashion. Modern network science attempts to explain the structure of interactions between the subunits of a system in order to understand their functioning and the processes taking place in them. It tries, for instance, to grasp how the structure of social networks affects the spread of information or human diseases, how the structure of the World Wide Web influences the search engines and surfing behavior, or how the hierarchy of ecological niches affects population dynamics. Beyond this, the ultimate goal of network science is to discover what generating principles exist behind the evolution of real systems. It tries to find the fundamental principles under which the subunits evolve, and the wiring of interactions. This thesis centres both on the study of the topological structure of networks and the analysis of the underlying principles responsible for their evolution. More specifically, it concentrates on the following aspects: the influence of vertex-pair correlations on network topology, the network percolation problem, which is closely related to the spreading of epidemics and the robustness of networks, and the effects of geography as a generating element. We show that important topological and percolation properties change considerably when modifying the connection probabilities between vertices, and that geography as well plays a crucial role in the modeling of evolving real web-like systems.
169

Effects of seasonality on the productivity of pastoral goat herds in northern Kenya

Hary, Ingo 19 April 2000 (has links)
Der wichtigste Bestimmungsfaktor für die Produktivität in der Herdenhaltung kleiner Wiederkäuer unter semi-ariden Weidebedingungen ist die klimatisch bedingte Saisonalität im Futteraufwuchs. In pastoralen Produktionssystemen gibt es nur wenige Alternativen zur Mobilität als effiziente und angepaßte Strategie zur Überwindung von Nährstoffdefiziten. Eine denkbare Intervention bestünde darin,, den saisonalen Nährstoffbedarf der Herde über ein kontrolliertes Anpaarungsmanagement zu steuern. Eine derartige Strategie wird jedoch von pastoralen Produzenten üblicherweise nicht durchgeführt. Restriktives Anpaarungsmanagement als ein Mittel zur Synchronisation der Nährstoffansprüche pastoraler Ziegenherden mit dem saisonalen Futterangebot hat bisher in der Forschung nur wenig Beachtung gefunden. Um die Vor- und Nachteile einer kontrollierten saisonalen Anpaarung zu untersuchen, wurde über einen Zeitraum von vier Jahren (1984-1988) im Isiolo Distrikt im Norden Kenias ein systematisches Anpaarungsprogramm in einer Herde kleiner Ostafrikanischer Ziegen durchgeführt. Ziel der Studie war es, (1) den Effekt einer saisonalen Anpaarung auf wichtige Leistungsmerkmale von Ziegenherden zu untersuchen, und (2) diese Daten für den Test der Hypothese zu verwenden, daß ein restriktives saisonales Anpaarungsmanagement die Produktivität pastoraler Ziegenherden zu steigern vermag. Es wurden 145 Muttertiere auf 18 aufeinander folgende Anpaarungsgruppen mit jeweils ca. 18 Tieren verteilt und für insgesamt 381 Anpaarungen verwendet. Jeder dieser 18 Gruppen wurde über einen Zeitraum von 2 Monaten der gleiche Zuchtbock zugeführt. Aus dem experimentellen Design ergaben sich 6 Anpaarungsperioden pro Jahr, die jeweils dreimal im Verlauf des Experiments wiederholt wurden. Es wurden 8547 Messungen bezüglich der Mortalität, der Gewichtsentwicklung und Milchleistung der Muttertiere erhoben; 9337 Messungen wurden zur Mortalität und Wachstumsleistung der Jungtiere erhoben. Statistische Analysen wurden für alle relevanten Leistungsmerkmale durchgeführt. Dazu zählen die Überlebensleistung von Jung- und Muttertieren, die Reproduktionsleistung der Muttertiere, die Wachstumsleistung der Jungtiere, sowie die Gewichtsentwicklung und Milchleistung der Mütter. Für die Ermittlung der Herdenproduktivität in den sechs Anpaarungsperioden wurde ein neues steady-state Herdenmodell entwickelt. Dieses Verfahren basiert auf einer zustandsstruktierten Beschreibung der Populationsdynamik und verwendet einen nicht linearen Optimierungsansatz zur simultanen Bestimmung der steady-state-Herdenstruktur und der Merzpolitik, die die energetische Effizienz auf Herdenebene maximiert. Die Anpaarungsperiode hatte keinen signifikanten Effekt auf Reproduktionsmerkmale, was höchstwahrscheinlich auf die hohe Variabilität in den Produktionsbedingungen zwischen den drei Wiederholungen einer Periode zurückzuführen ist. Die Unterschiede in der Überlebensleistung der Jungtiere zwischen den Anpaarungsperioden waren stark ausgeprägt. Die Ergebnisse belegen, daß restriktive Anpaarung ein effektives Mittel zur Reduzierung der Jungtiersterblichkeit sein kann. Ähnliche Schlußfolgerungen gelten in Bezug auf die Milchleistung. Die anfänglichen Unterschiede in der Wachstumsleistung zwischen den Anpaarungsperioden verschwanden weitestgehend bis die Tiere das Jährlingsstadium erreicht hatten. Daher kann man davon ausgehen, daß eine saisonale Anpaarung per se keinen nennenswerten Vorteil bezüglich der Wachstumsleistung von Jungtieren verschafft. Die ermittelten steady-state-Produktivitäten verdeutlichen, daß unter den gegebenen Bedingungen Reproduktionsleistungsmerkmale weitaus weniger bedeutsam für die biologische Herdenproduktivität sind, als dies häufig angenommen wird. Mit Hilfe von Sensitivitätsanalysen wurde gezeigt, daß die Jungtiersterblichkeit mit Abstand der wichtigste Bestimmungsfaktor für die energetische Effizienz auf Herdenebene ist. Restriktive Anpaarung kann aufgrund des positiven Einflusses auf die Überlebensleistung der Lämmer als Strategie zur Steigerung der biologischen Produktivität genutzt werden. Milch- und Wachstumsleistung sind von untergeordneter Bedeutung, nachdem ihre positiven Effekte auf die Überlebensleistung der Jungtiere berücksichtigt wurden. Eine Anpaarung auf dem Höhepunkt der langen Trockenzeit (Juli bis August) stellte die optimale Managementstrategie dar. Ob eine restriktive Anpaarung einer kontinuierlichen Anpaarung überlegen ist, konnte jedoch nicht zweifelsfrei festgestellt werden. Die Ergebnisse eines simulierten asaisonalen Managements deuten darauf hin, daß der durch saisonale Anpaarung erzielbare Effizienzzuwachs deutlich geringer ausfallen dürfte, als bisher angenommen wurde. Bezüglich der Methode zur Ermittlung der steady-state Herdenproduktivität ist festzuhalten, daß der Verwendung eines Optimalitätsansatzes für die Schaffung einer gemeinsamen Vergleichsbasis eine herausragende Bedeutung zukommt. Der entwickelte Bewertungsansatz erlaubt die Durchführung standardisierter Effizienzvergleiche auf Herdenebene und Kann zugleich ein wertvolles Hilfsmittel für ein besseres Verständnis von Produktionssystemen, bzw. für deren Optimierung sein.
170

Adaption offener Systeme durch die Trennung von Daten- und Kontrollfluss

Gierds, Christian 25 February 2015 (has links)
Wir betrachten offene Systeme; Systeme mit Schnittstelle und Verhalten in Form eines Protokolls. Offener Systeme interagieren durch den Austausch von Nachrichten. Die Interaktion ist korrekt, wenn die interagierende offenen Systeme terminieren können. Die korrekte Interaktion unabhängig entwickelter, offener Systeme ist nicht immer möglich. Obwohl ein offenes Systeme Funktionalität bereitstellt, die ein zweites offenes System benötigt, können Inkompatibilitäten in den Schnittstellen oder im Verhalten dazu führen, dass Nachrichten nicht korrekt ausgetauscht werden. Hier kommt die Idee eines Adapters zum Tragen, der solche Unterschiede ausgleicht. Wir führen eine Technik ein, die Inkompatibilitäten der Schnittstelle und des Verhaltens getrennt voneinander betrachtet. Mit Hilfe von Transformationsregeln geben wir an, wie Nachrichten zweier offener Systeme im Zusammenhang stehen. Wir modellieren so korrekten Datenfluss zwischen den Schnittstellen der offenen Systeme. Mit Hilfe existierender Techniken zur Controllersynthese erzeugen wir korrekten Kontrollfluss, sodass die Transformationsregeln so angewendet werden, dass Inkompatibilitäten im Verhalten überwunden werden. Wir erzeugen korrekten Kontrollfluss. Die Einheit aus Transformationsregeln und Controller bezeichnen wir als Adapter. Aufbauend auf dieser Technik betrachten wir in dieser Arbeit folgende Fragestellungen: - Welche Eigenschaften besitzt die vorgestellte Technik? Wann existiert ein Adapter? Wie lässt sich die Technik allgemein auf offene, kommunizierende Systeme anwenden? - Wie verteilen wir einen generierten Adapter auf verschiedene Komponenten? - Welche Informationen können wir bereitstellen, falls wir keinen Adapter finden? - Wie leiten wir ein formales Modell eines Adapters ab, wenn wir nur aufgezeichnetes Verhalten der offenen Systeme, aber keine formalen Modelle gegeben haben? / We consider open systems being described by an interface and behavior in form of an protocol. Interaction between open systems means exchange of messages. For the interaction to be correct, the interacting open systems must be able to terminate. The interaction of independently developed open systems is not guaranteed to be correct. Although one open system provides functionality a second open system requires, incompatiblities of the interfaces or the behavior may prevent the correct exchange of messages. The idea is to introduce an adapter to overcome the incompatiblities. We present a technique that considers incompatiblities of the interfaces and the behavior separately. With transformation rules we specify how messages of two open systems relate to each other. Using these rules we model the data flow between open systems and overcome incompatiblities of the interfaces. By using existing techniques for controller synthesis we overcome incompatiblities of the behavior. Thus we create correct control flow. We call the composition of transformation rules and controller an adapter. Based on the technique presented in this thesis, we want to answer the following reseach questions: - What are the properties of the proposed technique? When does an adapter exist? How can we apply the technique on open, communicating systems in general? - How do we distribute a generated adapter to different components? - Which information can we provide, if adapter synthesis fails? - How can we discover a formal model of an adapter, when we only have recorded behavior of open systems, but no formal models?

Page generated in 0.0829 seconds