• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 27
  • 27
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Methodical basis for landscape structure analysis and monitoring: inclusion of ecotones and small landscape elements

Hou, Wei 11 September 2014 (has links)
Habitat variation is considered as an expression of biodiversity at landscape level in addition to genetic variation and species variation. Thus, effective methods for measuring habitat pattern at landscape level can be used to evaluate the status of biological conservation. However, the commonly used model (i.e. patch-corridor-matrix) for spatial pattern analysis has deficiencies. This model assumes discrete structures within the landscape without explicit consideration of “transitional zones” or “gradients” between patches. The transitional zones, often called “ecotones”, are dynamic and have a profound influence on adjacent ecosystems. Besides, this model takes landscape as a flat surface without consideration of the third spatial dimension (elevation). This will underestimate the patches’ size and perimeter as well as distances between patches especially in mountainous regions. Thus, the mosaic model needs to be adapted for more realistic and more precise representation of habitat pattern regarding to biodiversity assessment. Another part of information that has often been ignored is “small biotopes” inside patches (e.g. hedgerows, tree rows, copse, and scattered trees), which leads to within-patch heterogeneity being underestimated. The present work originates from the integration of the third spatial dimension in land-cover classification and landscape structure analysis. From the aspect of data processing, an integrated approach of Object-Based Image Analysis (OBIA) and Pixel-Based Image Analysis (PBIA) is developed and applied on multi-source data set (RapidEye images and Lidar data). At first, a general OBIA procedure is developed according to spectral object features based on RapidEye images for producing land-cover maps. Then, based on the classified maps, pixel-based algorithms are designed for detection of the small biotopes and ecotones using a Normalized Digital Surface Model (NDSM) which is derived from Lidar data. For describing habitat pattern under three-dimensional condition, several 3D-metrics (measuring e.g. landscape diversity, fragmentation/connectivity, and contrast) are proposed with spatial consideration of the ecological functions of small biotopes and ecotones. The proposed methodology is applied in two real-world examples in Germany and China. The results are twofold. First, it shows that the integrated approach of object-based and pixel-based image processing is effective for land-cover classification on different spatial scales. The overall classification accuracies of the main land-cover maps are 92 % in the German test site and 87 % in the Chinese test site. The developed Red Edge Vegetation Index (REVI) which is calculated from RapidEye images has been proved more efficient than the traditionally used Normalized Differenced Vegetation Index (NDVI) for vegetation classification, especially for the extraction of the forest mask. Using NDSM data, the third dimension is helpful for the identification of small biotopes and height gradient on forest boundary. The pixel-based algorithm so-called “buffering and shrinking” is developed for the detection of tree rows and ecotones on forest/field boundary. As a result the accuracy of detecting small biotopes is 80 % and four different types of ecotones are detected in the test site. Second, applications of 3D-metrics in two varied test sites show the frequently-used landscape diversity indices (i.e. Shannon’s diversity (SHDI) and Simpson’s diversity (SIDI)) are not sufficient for describing the habitats diversity, as they quantify only the habitats composition without consideration on habitats spatial distribution. The modified 3D-version of Effective Mesh Size (MESH) that takes ecotones into account leads to a realistic quantification of habitat fragmentation. In addition, two elevation-based contrast indices (i.e. Area-Weighted Edge Contrast (AWEC) and Total Edge Contrast Index (TECI)) are used as supplement to fragmentation metrics. Both ecotones and small biotopes are incorporated into the contrast metrics to take into account their edge effect in habitat pattern. This can be considered as a further step after fragmentation analysis with additional consideration of the edge permeability in the landscape structure analysis. Furthermore, a vector-based algorithm called “multi-buffer” approach is suggested for analyzing ecological networks based on land-cover maps. It considers small biotopes as stepping stones to establish connections between patches. Then, corresponding metrics (e.g. Effective Connected Mesh Size (ECMS)) are proposed based on the ecological networks. The network analysis shows the response of habitat connectivity to different dispersal distances in a simple way. Those connections through stepping stones act as ecological indicators of the “health” of the system, indicating the interpatch communications among habitats. In summary, it can be stated that habitat diversity is an essential level of biodiversity and methods for quantifying habitat pattern need to be improved and adapted to meet the demands for landscape monitoring and biodiversity conservation. The approaches presented in this work serve as possible methodical solution for fine-scale landscape structure analysis and function as “stepping stones” for further methodical developments to gain more insights into the habitat pattern. / Die Lebensraumvielfalt ist neben der genetischen Vielfalt und der Artenvielfalt eine wesentliche Ebene der Biodiversität. Da diese Ebenen miteinander verknüpft sind, können Methoden zur Messung der Muster von Lebensräumen auf Landschaftsebene erfolgreich angewandt werden, um den Zustand der Biodiversität zu bewerten. Das zur räumlichen Musteranalyse auf Landschaftsebene häufig verwendete Patch-Korridor-Matrix-Modell weist allerdings einige Defizite auf. Dieses Modell geht von diskreten Strukturen in der Landschaft aus, ohne explizite Berücksichtigung von „Übergangszonen“ oder „Gradienten“ zwischen den einzelnen Landschaftselementen („Patches“). Diese Übergangszonen, welche auch als „Ökotone“ bezeichnet werden, sind dynamisch und haben einen starken Einfluss auf benachbarte Ökosysteme. Außerdem wird die Landschaft in diesem Modell als ebene Fläche ohne Berücksichtigung der dritten räumlichen Dimension (Höhe) betrachtet. Das führt dazu, dass die Flächengrößen und Umfänge der Patches sowie Distanzen zwischen den Patches besonders in reliefreichen Regionen unterschätzt werden. Daher muss das Patch-Korridor-Matrix-Modell für eine realistische und präzise Darstellung der Lebensraummuster für die Bewertung der biologischen Vielfalt angepasst werden. Ein weiterer Teil der Informationen, die häufig in Untersuchungen ignoriert werden, sind „Kleinbiotope“ innerhalb größerer Patches (z. B. Feldhecken, Baumreihen, Feldgehölze oder Einzelbäume). Dadurch wird die Heterogenität innerhalb von Patches unterschätzt. Die vorliegende Arbeit basiert auf der Integration der dritten räumlichen Dimension in die Landbedeckungsklassifikation und die Landschaftsstrukturanalyse. Mit Methoden der räumlichen Datenverarbeitung wurde ein integrierter Ansatz von objektbasierter Bildanalyse (OBIA) und pixelbasierter Bildanalyse (PBIA) entwickelt und auf einen Datensatz aus verschiedenen Quellen (RapidEye-Satellitenbilder und Lidar-Daten) angewendet. Dazu wird zunächst ein OBIA-Verfahren für die Ableitung von Hauptlandbedeckungsklassen entsprechend spektraler Objekteigenschaften basierend auf RapidEye-Bilddaten angewandt. Anschließend wurde basierend auf den klassifizierten Karten, ein pixelbasierter Algorithmus für die Erkennung von kleinen Biotopen und Ökotonen mit Hilfe eines normalisierten digitalen Oberflächenmodells (NDSM), welches das aus LIDAR-Daten abgeleitet wurde, entwickelt. Zur Beschreibung der dreidimensionalen Charakteristika der Lebensraummuster unter der räumlichen Betrachtung der ökologischen Funktionen von kleinen Biotopen und Ökotonen, werden mehrere 3D-Maße (z. B. Maße zur landschaftlichen Vielfalt, zur Fragmentierung bzw. Konnektivität und zum Kontrast) vorgeschlagen. Die vorgeschlagene Methodik wird an zwei realen Beispielen in Deutschland und China angewandt. Die Ergebnisse zeigen zweierlei. Erstens zeigt es sich, dass der integrierte Ansatz der objektbasierten und pixelbasierten Bildverarbeitung effektiv für die Landbedeckungsklassifikation auf unterschiedlichen räumlichen Skalen ist. Die Klassifikationsgüte insgesamt für die Hauptlandbedeckungstypen beträgt 92 % im deutschen und 87 % im chinesischen Testgebiet. Der eigens entwickelte Red Edge-Vegetationsindex (REVI), der sich aus RapidEye-Bilddaten berechnen lässt, erwies sich für die Vegetationsklassifizierung als effizienter verglichen mit dem traditionell verwendeten Normalized Differenced Vegetation Index (NDVI), insbesondere für die Gewinnung der Waldmaske. Im Rahmen der Verwendung von NDSM-Daten erwies sich die dritte Dimension als hilfreich für die Identifizierung von kleinen Biotopen und dem Höhengradienten, beispielsweise an der Wald/Feld-Grenze. Für den Nachweis von Baumreihen und Ökotonen an der Wald/Feld-Grenze wurde der sogenannte pixelbasierte Algorithmus „Pufferung und Schrumpfung“ entwickelt. Im Ergebnis konnten kleine Biotope mit einer Genauigkeit von 80 % und vier verschiedene Ökotontypen im Testgebiet detektiert werden. Zweitens zeigen die Ergebnisse der Anwendung der 3D-Maße in den zwei unterschiedlichen Testgebieten, dass die häufig genutzten Landschaftsstrukturmaße Shannon-Diversität (SHDI) und Simpson-Diversität (SIDI) nicht ausreichend für die Beschreibung der Lebensraumvielfalt sind. Sie quantifizieren lediglich die Zusammensetzung der Lebensräume, ohne Berücksichtigung der räumlichen Verteilung und Anordnung. Eine modifizierte 3D-Version der Effektiven Maschenweite (MESH), welche die Ökotone integriert, führt zu einer realistischen Quantifizierung der Fragmentierung von Lebensräumen. Darüber hinaus wurden zwei höhenbasierte Kontrastindizes, der flächengewichtete Kantenkontrast (AWEC) und der Gesamt-Kantenkontrast Index (TECI), als Ergänzung der Fragmentierungsmaße entwickelt. Sowohl Ökotone als auch Kleinbiotope wurden in den Berechnungen der Kontrastmaße integriert, um deren Randeffekte im Lebensraummuster zu berücksichtigen. Damit kann als ein weiterer Schritt nach der Fragmentierungsanalyse die Randdurchlässigkeit zusätzlich in die Landschaftsstrukturanalyse einbezogen werden. Außerdem wird ein vektorbasierter Algorithmus namens „Multi-Puffer“-Ansatz für die Analyse von ökologischen Netzwerken auf Basis von Landbedeckungskarten vorgeschlagen. Er berücksichtigt Kleinbiotope als Trittsteine, um Verbindungen zwischen Patches herzustellen. Weiterhin werden entsprechende Maße, z. B. die Effective Connected Mesh Size (ECMS), für die Analyse der ökologischen Netzwerke vorgeschlagen. Diese zeigen die Auswirkungen unterschiedlicher angenommener Ausbreitungsdistanzen von Organismen bei der Ableitung von Biotopverbundnetzen in einfacher Weise. Diese Verbindungen zwischen Lebensräumen über Trittsteine hinweg dienen als ökologische Indikatoren für den „gesunden Zustand“ des Systems und zeigen die gegenseitigen Verbindungen zwischen den Lebensräumen. Zusammenfassend kann gesagt werden, dass die Vielfalt der Lebensräume eine wesentliche Ebene der Biodiversität ist. Die Methoden zur Quantifizierung der Lebensraummuster müssen verbessert und angepasst werden, um den Anforderungen an ein Landschaftsmonitoring und die Erhaltung der biologischen Vielfalt gerecht zu werden. Die in dieser Arbeit vorgestellten Ansätze dienen als mögliche methodische Lösung für eine feinteilige Landschaftsstrukturanalyse und fungieren als ein „Trittsteine” auf dem Weg zu weiteren methodischen Entwicklungen für einen tieferen Einblick in die Muster von Lebensräumen.
22

50 years of Democracy in Botswana : The study of the democratic consolidation from 1965-2015 / 50 år av Demokrati i Botswana : En studie av den demokratiska konsolideringen från 1965-2015

Sayed Abdu, Nemma January 2015 (has links)
Botswana's democracy has been labeled as ‘the African Miracle’ by the international community. However, in its 50 years of independence, there has been no change in government from the ruling party and the opposition is institutionally weak. The purpose for this study is to analyze the extent of democratic consolidation in Botswana and to try to analyze the challenges in the processes of democratic consolidation. In order to answer the research questions that are put forth in this study, Linz and Stepan’s theoretical framework were used against empirical evidence about Botswana from its independence in 1965 to 2015. The results show that in Botswana the democracy is not consolidated and point toward a more stable democracy than a deeply consolidated democracy. Stable democracy is centered upon the actual functions rather the depth of democracy. The main challenges for further democratic consolidation is the constitutional framework that lack accountability for the executive, the longevity of a dominant party system, the uneven ‘playing field’, the weak opposition, the restrictions and limitation upon the independent media and the civil society. Botswana’s exceptional reputation is exaggerated, while the country have had uninterrupted elections, the depth and quality of the democracy is shallow.
23

國際企業在地化策略之研究-以網路資訊產業為例 / A study of localization strategy of international enterprise -based on information and internet industry

吳彥輝 Unknown Date (has links)
隨著時代的變遷,商業盛行,全世界的企業都很清楚了解到必須靈活運用經濟學的「比較利益法則」,才可以讓企業本身創造出成本極小化與利潤極大化的空間。美國密西根大學Ross Business School知名的教授C.K. Prahalad也提出「N=1,R=G」的觀念,證實了「全球化」在現今的確是一股讓我們不容忽視的力量與演進。 伴隨「全球化」而來的便是「在地化」所面臨的問題,這一點在過去傳統的實體產業中,國際企業已經對於在地化的策略有很深入的剖析與研究,但是由於時代的演進快速,現今商業市場最大,最具發展潛力的產業,儼然已經變成虛擬的網路資訊產業了。因此過去學者所研究的在地化策略是否在網路資訊產業中會有不同的地方?國際企業於在地化時,實體產業需要注意的地方會和虛擬的網路資訊產業相同或是相異?而網路資訊產業中的國際企業又應該如何制定在地化策略?針對國際企業的大舉入侵,本土產業是否有和抵抗其在地化的策略?這些問題在過去並無針對網路資訊產業做探討,因此本研究將以吳思華教授提出的策略三構面為研究架構基礎,針對網路資訊產業設計出新的研究架構與研究問題,研究問題分別為:(1)為了克服在地化的劣勢,國際企業如何爭取在地市場上的競爭力?(2)國際企業如何結合本身全球化的優勢與在地市場的競爭力?(3)國際企業達到全球在地化的關鍵成功因素為何? 最後藉由次級資料的蒐集以及實地訪談在網路資訊產業中最具指標性的三家公司(Google、YAHOO!、愛情公寓)之一手資料,透過質性研究的方式,分析整理出以下研究結論,包括有在地市場環境的了解與掌握、網路位置的定位與連結整合在地資源、彈性策略、以及重新鍵結的在地策略…等。 / As time goes by, global commercial has been developed into a new stage. Businesses around the world now understand that the Law of Comparative Advantage must be used correctly to create the cost minimization and maximize their profits. Professor C.K. Prahalad, renowned professor in Ross Business School at the University of Michigan who developed a theory of “N=1, R=G”, restated that “Globalization” is indeed an invincible force in the new age. The topic of “Globalization” comes with the issue of “Localization”. In the past, localization business strategy has been analyzed and studied in depth for the traditional industry. Due to the rapid evolution of global business, the greatest business opportunities now lie in the virtual world of information and internet. Now the question is, are there any differences in the localization strategy of the traditional business and those of the information and internet industry? When traditional international enterprises develop their localization strategy, is it any different than the localization strategy of international information and internet businesses? How do international enterprises develop localization strategy in information and internet industry? How do local companies develop their best strategies to fight against the penetration of international enterprises? These issues are not discussed in depth in the information and internet industry in the past. This study is based on the Professor Wu’s theory, “Three dimensions of strategy”. This is redesigned in a new structure and, additionally, a set of innovative research questions. The research questions are: (1) In order to overcome the disadvantages in local market, how does international enterprise develop business strategies to gain the competitive advantages in a new market? (2) How do international enterprises combine their global competitive advantages with the special local market condition? (3) What are the key successful factors of “glocalization” for international enterprise? With the second-hand data collecting, and the first-hand information gathering by interviewing three representative companies (Google, YAHOO!, iPart) in information and internet industry, I developed the research conclusions through the qualitative research method which include the understanding and overall control of international enterprises in local market, the right positioning of the international enterprises in the internet and information industry, the integration of the global advantages and the local resources, flexible international business strategy, and recontextualization of local strategy…etc.
24

Symmetries and conservation laws in Lagrangian gauge theories with applications to the mechanics of black holes and to gravity in three dimensions / Symétries et lois de conservation en théorie de jauge Lagrangiennes avec applications à la mécanique des trous noirs et à la gravité à trois dimensions

Compère, Geoffrey 12 June 2007 (has links)
In a preamble, a quick summary of the line of thought from Noether's theorems to modern views on conserved charges in gauge theories is attempted. Most of the background material needed for the thesis is set out through a small survey of the literature. Emphasis is put on the concepts more than on the formalism, which is relegated to the appendices.<p><p>The treatment of exact conservation laws in Lagrangian gauge theories constitutes the main axis of the first part of the thesis. The formalism is developed as a self-consistent theory but is inspired by earlier works, mainly by cohomological results, covariant phase space methods and by the Hamiltonian formalism.<p>The thermodynamical properties of black holes, especially the first law, are studied in a general geometrical setting and are worked out for several black objects: black holes, strings and rings. Also, the geometrical and thermodynamical properties of a new family of black holes with closed timelike curves in three dimensions are described.<p><p><p>The second part of the thesis is the natural generalization of the first part to asymptotic analyses. We start with a general construction of covariant phase spaces admitting asymptotically conserved charges. The representation of the asymptotic symmetry algebra by a covariant Poisson bracket among the conserved charges is then defined and is shown to admit generically central extensions. The asymptotic structures of three three-dimensional spacetimes are then studied in detail and the consequences for quantum gravity in three dimensions are discussed. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
25

Boundary Integral Techniques in Three Dimensions for Deep Water Waves

Zhang, Huaijian 27 July 2011 (has links)
No description available.
26

Approche efficace pour la conception des architectures multiprocesseurs sur puce électronique

Elie, Etienne 12 1900 (has links)
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système. / On-Chip Multiprocessor (OCM) systems are considered to be the best structures to occupy the abundant space available on today integrated circuits (IC). In our thesis, we are interested on an architectural model, called Isometric on-Chip Multiprocessor Architecture (ICMA), that optimizes the OCM systems by focusing on an effective organization of cores (processors and memories) and on methodologies that optimize the use of these architectures. In the first part of this work, we study the topology of ICMA and propose an architecture that enables efficient and massive use of on-chip memories. ICMA organizes processors and memories in an isometric structure with the objective to get processed data close to the processors that use them rather than to optimize transfers between processors and memories, arranged in a conventional manner. ICMA is a mesh model in three dimensions. The organization of our architecture is inspired by the crystal structure of sodium chloride (NaCl), where each processor can access six different memories and where each memory can communicate with six processors at once. In the second part of our work, we focus on a methodology of decomposition. This methodology is used to find the optimal number of nodes for a given application or specification. The approach we use is to transform an application or a specification into an incidence matrix, where the entries of this matrix are the interactions between processors and memories as entries. In other words, knowing that the performance of a model depends on the intensity of the data flow exchanged between its units, namely their number, we aim to guarantee a good computing performance by finding the optimal number of processors and memories that are suitable for the application computation. We also consider the load balancing of the units of ICMA during the specification phase of the design. Our proposed decomposition is on three points: the transformation of the specification or application into an incidence matrix, a new methodology based on the Cell Formation Problem (CFP), and load balancing processes in the processors and data in memories. In the third part, we focus on the allocation of processor and memory by a two-step methodology. Initially, we allocate units to the nodes of the system structure, considered here as an undirected graph, and subsequently we assign values to the arcs of this graph. For the assignment, we propose modeling of the decomposed application using a matrix approach and the Quadratic Assignment Problem (QAP). For the assignment of the values to the arcs, we propose an approach of gradual changes of these values in order to seek the best combination of cost allocation, this under certain metric constraints such as temperature, heat dissipation, power consumption and surface occupied by the chip. The ultimate goal of this work is to propose a methodology for non-traditional, systematic and effective decision support design tools for multiprocessor system architects, from the phase of functional specification.
27

Approche efficace pour la conception des architectures multiprocesseurs sur puce électronique

Elie, Etienne 12 1900 (has links)
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système. / On-Chip Multiprocessor (OCM) systems are considered to be the best structures to occupy the abundant space available on today integrated circuits (IC). In our thesis, we are interested on an architectural model, called Isometric on-Chip Multiprocessor Architecture (ICMA), that optimizes the OCM systems by focusing on an effective organization of cores (processors and memories) and on methodologies that optimize the use of these architectures. In the first part of this work, we study the topology of ICMA and propose an architecture that enables efficient and massive use of on-chip memories. ICMA organizes processors and memories in an isometric structure with the objective to get processed data close to the processors that use them rather than to optimize transfers between processors and memories, arranged in a conventional manner. ICMA is a mesh model in three dimensions. The organization of our architecture is inspired by the crystal structure of sodium chloride (NaCl), where each processor can access six different memories and where each memory can communicate with six processors at once. In the second part of our work, we focus on a methodology of decomposition. This methodology is used to find the optimal number of nodes for a given application or specification. The approach we use is to transform an application or a specification into an incidence matrix, where the entries of this matrix are the interactions between processors and memories as entries. In other words, knowing that the performance of a model depends on the intensity of the data flow exchanged between its units, namely their number, we aim to guarantee a good computing performance by finding the optimal number of processors and memories that are suitable for the application computation. We also consider the load balancing of the units of ICMA during the specification phase of the design. Our proposed decomposition is on three points: the transformation of the specification or application into an incidence matrix, a new methodology based on the Cell Formation Problem (CFP), and load balancing processes in the processors and data in memories. In the third part, we focus on the allocation of processor and memory by a two-step methodology. Initially, we allocate units to the nodes of the system structure, considered here as an undirected graph, and subsequently we assign values to the arcs of this graph. For the assignment, we propose modeling of the decomposed application using a matrix approach and the Quadratic Assignment Problem (QAP). For the assignment of the values to the arcs, we propose an approach of gradual changes of these values in order to seek the best combination of cost allocation, this under certain metric constraints such as temperature, heat dissipation, power consumption and surface occupied by the chip. The ultimate goal of this work is to propose a methodology for non-traditional, systematic and effective decision support design tools for multiprocessor system architects, from the phase of functional specification.

Page generated in 0.0988 seconds