201 |
On the domain-specific formalization of requirement specifications - a case study of ETCS / Teil-automatisierte Formalisierung von Lastenheftanforderungen am Beispiel ETCSDorka, Moritz 16 October 2015 (has links) (PDF)
This paper presents a piece of software to automatically extract requirements captured in Microsoft Word files while using domain knowledge. In a subsequent step, these requirements are enhanced for implementation purposes and ultimately saved to ReqIF, an XML-based file format for the exchange of specification documents. ReqIF can be processed by a wide range of industry-standard requirements management tools. By way of this enhancement a formalization of both the document structure and selected elements of its natural language contents is achieved.
In its current version, the software was specifically developed for processing the Subset-026, a conceptually demanding specification document covering the core functionality of the pan-European train protection system ETCS.
Despite this initial focus, the two-part design of this thesis facilitates a generic applicability of its findings: Section 2 presents the fundamental challenges of weakly structured specification documents and devotes a large part to the computation of unique, but human-readable requirement identifiers. Section 3, however, delves into more domain-specific features, the text processing capabilities, and the actual implementation of this novel software.
Due to the open-source nature of the application, an adaption to other use-cases can be achieved with comparably little effort. / Diese Arbeit befasst sich mit einer Software zur automatisierten Extraktion von Anforderungen aus Dokumenten im Microsoft Word Format unter Nutzung von Domänenwissen. In einem nachgelagerten Schritt werden diese Anforderungen für Implementierungszwecke aufgewertet und schließlich als ReqIF, einem XML-basierten Dateiformat zum Austausch von Spezifikationsdokumenten, gespeichert. ReqIF wird von zahlreichen branchenüblichen Anforderungsmanagementwerkzeugen unterstützt. Durch die Aufwertung wird eine Formalisierung der Struktur sowie ausgewählter Teile der natürlichsprachlichen Inhalte des Dokuments erreicht.
Die jetzige Version der Software wurde speziell für die Verarbeitung des Subset-026 entwickelt, eines konzeptionell anspruchsvollen Anforderungsdokuments zur Beschreibung der Kernfunktionalität des europaweiten Zugsicherungssystems ETCS.
Trotz dieser ursprünglichen Intention erlaubt die zweigeteilte Gestaltung der Arbeit eine allgemeine Anwendung der Ergebnisse: Abschnitt 2 zeigt die grundsätzlichen Herausforderungen in Bezug auf schwach strukturierte Anforderungsdokumente auf und widmet sich dabei ausführlich der Ermittlung von eindeutigen, aber dennoch menschenlesbaren Anforderungsidentifikatoren. Abschnitt 3 befasst sich hingegen eingehender mit den domänenspezifischen Eigenschaften, den Textaufbereitungsmöglichkeiten und der konkreten Implementierung der neuen Software.
Da die Software unter open-source Prinzipien entwickelt wurde, ist eine Anpassung an andere Anwendungsfälle mit relativ geringem Aufwand möglich.
|
202 |
Wirkung von Umweltchemikalien auf Gammarus fossarum - Populationsexperimente und individuenbasiertes ReproduktionsmodellSchmidt, Jens 12 June 2004 (has links) (PDF)
Das Schutzziel in der Ökotoxikologie ist die Population. Untersuchungen zur Wirkung von subletalen Konzentrationen einer Umweltchemikalie auf Populationsebene, zum Beispiel mit künstlichen Fließgewässersystemen (Mikrokosmen) können aussagekräftigere Beiträge zur ökotoxikologischen Bewertung einer Umweltchemikalie liefern. Außerdem können bei solchen Untersuchungen mögliche indirekte Effekte erfaßt werden. Über die Reaktion von Fließgewässer-Biozönosen gegenüber Umweltchemikalien ist relativ wenig bekannt. Die überwiegende Zahl der Untersuchungen zur Abschätzung des Gefährdungspotentials von Umweltchemikalien wurde mit Testsystemen für Lebensgemeinschaften in stehenden Gewässern untersucht. Die Übertragbarkeit der Ergebnisse dieser Tests auf Fließgewässer-Lebensgemeinschaften ist meist nicht gegeben. Daher ist es notwendig Testsysteme zu etablieren, mit denen die Wirkung von Umweltchemikalien auf Fließgewässer-Lebensgemeinschaften untersucht werden kann. In einem Gewächshaus wurden fünf Fließrinnen etabliert, mit denen die physikalisch-chemischen Bedingungen in einem Bach simuliert werden können. Im Gegensatz zu Untersuchungen einer komplexen Lebensgemeinschaft mit hoher Variabilität, wie sie sich beispielsweise durch das Einbringen von natürlichem Sediment aus Fließgewässern einstellt, wurde in diesen Experimenten die Wirkung von Chemikalien auf eine einfache Lebensgemeinschaft untersucht. Die Lebensgemeinschaft in den Fließrinnen bestand deshalb aus wenigen, ausgewählten Arten. Untersucht wurden die Konzentrationen 0,6, 6, 60 und 600 µg/l (Terbutryn) und 0,05, 0,5, 5 und 50 µg/l (Fenoxycarb). Gegenstand der vorliegenden Arbeit waren die Untersuchungen mit Gammarus fossarum. In einem akuten Toxizitätstest wurde die LC50 von Terbutryn für adulte und juvenile Gammariden ermittelt. In den Fließrinnenexperimenten mit Terbutryn und Fenoxycarb wurden populationsrelevante Parameter der Gammaridenpopulationen untersucht. Ob und in welchem Umfang sich Effekte, die mit den Standardtests gemessen wurden, auf bestimmte ökotoxikologische Endpunkte der Population auswirken, kann nicht immer unmittelbar abgeleitet werden. Eine Möglichkeit wäre die aufwendige Durchführung von Populationsexperimenten mit einfachen oder komplexeren Modellökosystemen über eine lange Zeit. Eine andere Möglichkeit ist die Nutzung mathematischer Modelle zur Beschreibung der Populationsdynamik. Das begleitend zu den Untersuchungen entwickelte individuenbasierte Reproduktionsmodell GamMod bildet die Populationsdynamik einer abgeschlossenen Population von Gammarus fossarum in künstlichen Fließgewässersystemen ab. Es wird die Struktur und Dynamik des realen Systems (Populationsdynamik) unter Einbeziehung der Kenntnisse des Reproduktionszyklus modelliert. Modellszenarien sollen Aussagen über den Einfluß der Änderung einer Variablen bezüglich der Populationsdynamik liefern.
|
203 |
On the domain-specific formalization of requirement specifications - a case study of ETCSDorka, Moritz 25 August 2015 (has links)
This paper presents a piece of software to automatically extract requirements captured in Microsoft Word files while using domain knowledge. In a subsequent step, these requirements are enhanced for implementation purposes and ultimately saved to ReqIF, an XML-based file format for the exchange of specification documents. ReqIF can be processed by a wide range of industry-standard requirements management tools. By way of this enhancement a formalization of both the document structure and selected elements of its natural language contents is achieved.
In its current version, the software was specifically developed for processing the Subset-026, a conceptually demanding specification document covering the core functionality of the pan-European train protection system ETCS.
Despite this initial focus, the two-part design of this thesis facilitates a generic applicability of its findings: Section 2 presents the fundamental challenges of weakly structured specification documents and devotes a large part to the computation of unique, but human-readable requirement identifiers. Section 3, however, delves into more domain-specific features, the text processing capabilities, and the actual implementation of this novel software.
Due to the open-source nature of the application, an adaption to other use-cases can be achieved with comparably little effort.:1 Introduction 13
1.1 Motivation 14
1.2 Previous formalization attempts 15
2 Processing specification documents 17
2.1 Structural considerations 17
2.1.1 The input format: DOC 18
2.1.2 Different parts of a specification document 20
2.1.3 The output format: ReqIF 20
2.2 Enhancing requirement content 23
2.2.1 Visualizing dependencies 25
2.2.2 Querying for data 25
2.3 Computing requirement identifiers 28
2.3.1 Unwinding complex structures: Tables 33
2.3.2 Unwinding complex structures: Other structures 37
2.3.3 Summary 38
3 The tool 41
3.1 Basic usage 41
3.1.1 Dealing with embedded media 43
3.2 ReqIF output 45
3.2.1 Data associated with a requirement artifact 46
3.2.2 Links between requirement artifacts 52
3.2.3 Issues with IBM DOORS 55
3.3 Content formalization 56
3.3.1 Detection of recurring elements 56
3.3.2 Sublist dependencies 58
3.3.3 Intra-cell requirements 59
3.3.4 Unformalizable elements 61
3.4 Inner workings 62
3.4.1 List hierarchy algorithm 64
3.4.2 Techniques for natural language content 69
3.5 Comparison to other tools 72
3.6 Applying this tool to other documents 74
3.7 EN 50128 tool qualification 76
4 Outlook 77
5 Conclusion 79
A Appendices 83
A.1 Postprocessing statistics data 83
A.1.1 Clean up spurious external links 83
A.1.2 Merge data of several tool runs 84
A.2 Subset-026 keywords 85
A.2.1 Legal obligation 85
A.2.2 Weak words 85
A.2.3 Other keywords for the implementerEnhanced-field 86
Lists of Figures, Tables and Listings 87
Glossary 89
Terms specific to this thesis 92
Bibliography 93 / Diese Arbeit befasst sich mit einer Software zur automatisierten Extraktion von Anforderungen aus Dokumenten im Microsoft Word Format unter Nutzung von Domänenwissen. In einem nachgelagerten Schritt werden diese Anforderungen für Implementierungszwecke aufgewertet und schließlich als ReqIF, einem XML-basierten Dateiformat zum Austausch von Spezifikationsdokumenten, gespeichert. ReqIF wird von zahlreichen branchenüblichen Anforderungsmanagementwerkzeugen unterstützt. Durch die Aufwertung wird eine Formalisierung der Struktur sowie ausgewählter Teile der natürlichsprachlichen Inhalte des Dokuments erreicht.
Die jetzige Version der Software wurde speziell für die Verarbeitung des Subset-026 entwickelt, eines konzeptionell anspruchsvollen Anforderungsdokuments zur Beschreibung der Kernfunktionalität des europaweiten Zugsicherungssystems ETCS.
Trotz dieser ursprünglichen Intention erlaubt die zweigeteilte Gestaltung der Arbeit eine allgemeine Anwendung der Ergebnisse: Abschnitt 2 zeigt die grundsätzlichen Herausforderungen in Bezug auf schwach strukturierte Anforderungsdokumente auf und widmet sich dabei ausführlich der Ermittlung von eindeutigen, aber dennoch menschenlesbaren Anforderungsidentifikatoren. Abschnitt 3 befasst sich hingegen eingehender mit den domänenspezifischen Eigenschaften, den Textaufbereitungsmöglichkeiten und der konkreten Implementierung der neuen Software.
Da die Software unter open-source Prinzipien entwickelt wurde, ist eine Anpassung an andere Anwendungsfälle mit relativ geringem Aufwand möglich.:1 Introduction 13
1.1 Motivation 14
1.2 Previous formalization attempts 15
2 Processing specification documents 17
2.1 Structural considerations 17
2.1.1 The input format: DOC 18
2.1.2 Different parts of a specification document 20
2.1.3 The output format: ReqIF 20
2.2 Enhancing requirement content 23
2.2.1 Visualizing dependencies 25
2.2.2 Querying for data 25
2.3 Computing requirement identifiers 28
2.3.1 Unwinding complex structures: Tables 33
2.3.2 Unwinding complex structures: Other structures 37
2.3.3 Summary 38
3 The tool 41
3.1 Basic usage 41
3.1.1 Dealing with embedded media 43
3.2 ReqIF output 45
3.2.1 Data associated with a requirement artifact 46
3.2.2 Links between requirement artifacts 52
3.2.3 Issues with IBM DOORS 55
3.3 Content formalization 56
3.3.1 Detection of recurring elements 56
3.3.2 Sublist dependencies 58
3.3.3 Intra-cell requirements 59
3.3.4 Unformalizable elements 61
3.4 Inner workings 62
3.4.1 List hierarchy algorithm 64
3.4.2 Techniques for natural language content 69
3.5 Comparison to other tools 72
3.6 Applying this tool to other documents 74
3.7 EN 50128 tool qualification 76
4 Outlook 77
5 Conclusion 79
A Appendices 83
A.1 Postprocessing statistics data 83
A.1.1 Clean up spurious external links 83
A.1.2 Merge data of several tool runs 84
A.2 Subset-026 keywords 85
A.2.1 Legal obligation 85
A.2.2 Weak words 85
A.2.3 Other keywords for the implementerEnhanced-field 86
Lists of Figures, Tables and Listings 87
Glossary 89
Terms specific to this thesis 92
Bibliography 93
|
204 |
Wirkung von Umweltchemikalien auf Gammarus fossarum - Populationsexperimente und individuenbasiertes ReproduktionsmodellSchmidt, Jens 10 November 2003 (has links)
Das Schutzziel in der Ökotoxikologie ist die Population. Untersuchungen zur Wirkung von subletalen Konzentrationen einer Umweltchemikalie auf Populationsebene, zum Beispiel mit künstlichen Fließgewässersystemen (Mikrokosmen) können aussagekräftigere Beiträge zur ökotoxikologischen Bewertung einer Umweltchemikalie liefern. Außerdem können bei solchen Untersuchungen mögliche indirekte Effekte erfaßt werden. Über die Reaktion von Fließgewässer-Biozönosen gegenüber Umweltchemikalien ist relativ wenig bekannt. Die überwiegende Zahl der Untersuchungen zur Abschätzung des Gefährdungspotentials von Umweltchemikalien wurde mit Testsystemen für Lebensgemeinschaften in stehenden Gewässern untersucht. Die Übertragbarkeit der Ergebnisse dieser Tests auf Fließgewässer-Lebensgemeinschaften ist meist nicht gegeben. Daher ist es notwendig Testsysteme zu etablieren, mit denen die Wirkung von Umweltchemikalien auf Fließgewässer-Lebensgemeinschaften untersucht werden kann. In einem Gewächshaus wurden fünf Fließrinnen etabliert, mit denen die physikalisch-chemischen Bedingungen in einem Bach simuliert werden können. Im Gegensatz zu Untersuchungen einer komplexen Lebensgemeinschaft mit hoher Variabilität, wie sie sich beispielsweise durch das Einbringen von natürlichem Sediment aus Fließgewässern einstellt, wurde in diesen Experimenten die Wirkung von Chemikalien auf eine einfache Lebensgemeinschaft untersucht. Die Lebensgemeinschaft in den Fließrinnen bestand deshalb aus wenigen, ausgewählten Arten. Untersucht wurden die Konzentrationen 0,6, 6, 60 und 600 µg/l (Terbutryn) und 0,05, 0,5, 5 und 50 µg/l (Fenoxycarb). Gegenstand der vorliegenden Arbeit waren die Untersuchungen mit Gammarus fossarum. In einem akuten Toxizitätstest wurde die LC50 von Terbutryn für adulte und juvenile Gammariden ermittelt. In den Fließrinnenexperimenten mit Terbutryn und Fenoxycarb wurden populationsrelevante Parameter der Gammaridenpopulationen untersucht. Ob und in welchem Umfang sich Effekte, die mit den Standardtests gemessen wurden, auf bestimmte ökotoxikologische Endpunkte der Population auswirken, kann nicht immer unmittelbar abgeleitet werden. Eine Möglichkeit wäre die aufwendige Durchführung von Populationsexperimenten mit einfachen oder komplexeren Modellökosystemen über eine lange Zeit. Eine andere Möglichkeit ist die Nutzung mathematischer Modelle zur Beschreibung der Populationsdynamik. Das begleitend zu den Untersuchungen entwickelte individuenbasierte Reproduktionsmodell GamMod bildet die Populationsdynamik einer abgeschlossenen Population von Gammarus fossarum in künstlichen Fließgewässersystemen ab. Es wird die Struktur und Dynamik des realen Systems (Populationsdynamik) unter Einbeziehung der Kenntnisse des Reproduktionszyklus modelliert. Modellszenarien sollen Aussagen über den Einfluß der Änderung einer Variablen bezüglich der Populationsdynamik liefern.
|
205 |
Combining Business Intelligence, Indicators, and the User Requirements Notation for Performance MonitoringJohari Shirazi, Iman 26 November 2012 (has links)
Organizations use Business Intelligence (BI) systems to monitor how well they are meeting
their goals and objectives. Yet, very often BI systems do not include clear models of
the organization’s goals or of how to measure whether they are satisfied or not. Several
researchers now attempt to integrate goal models into BI systems, but there are still major
challenges related to how to get access to the BI data to populate the part of the goal
model (often indicators) used to assess goal satisfaction.
This thesis explores a new approach to integrate BI systems with goal models. In
particular, it explores the integration of IBM Cognos Business Intelligence, a leading BI
tool, with an Eclipse-based goal modeling tool named jUCMNav. jUCMNav is an open
source graphical editor for the User Requirements Notation (URN), which includes the
Use Case Map notation for scenarios and processes and the Goal-oriented Requirement
Language for business objectives. URN was recently extended with the concept of Key
Performance Indicator (KPI) to enable performance assessment and monitoring of business
processes. In jUCMNav, KPIs are currently calculated or modified manually. The
new integration proposed in this thesis maps these KPIs to report elements that are generated
automatically by Cognos based on the model defined in jUCMNav at runtime, with
minimum effort. We are using IBM Cognos Mashup Service, which includes web services
that enable the retrieval of report elements at the most granular level. This transformation
provides managers and analysts with useful goal-oriented and process-oriented
monitoring views fed by just-in-time BI information. This new solution also automates
retrieving data from Cognos servers, which helps reducing the high costs usually caused
by the amount of manual work required otherwise.
The novel approach presented in this thesis avoids manual report generation and
minimizes any contract with respect to the location of manually created reports, hence
leading to better usability and performance. The approach and its tool support are illustrated
with an ongoing example, validated with a case study, and verified through testing.
|
206 |
Combining Business Intelligence, Indicators, and the User Requirements Notation for Performance MonitoringJohari Shirazi, Iman 26 November 2012 (has links)
Organizations use Business Intelligence (BI) systems to monitor how well they are meeting
their goals and objectives. Yet, very often BI systems do not include clear models of
the organization’s goals or of how to measure whether they are satisfied or not. Several
researchers now attempt to integrate goal models into BI systems, but there are still major
challenges related to how to get access to the BI data to populate the part of the goal
model (often indicators) used to assess goal satisfaction.
This thesis explores a new approach to integrate BI systems with goal models. In
particular, it explores the integration of IBM Cognos Business Intelligence, a leading BI
tool, with an Eclipse-based goal modeling tool named jUCMNav. jUCMNav is an open
source graphical editor for the User Requirements Notation (URN), which includes the
Use Case Map notation for scenarios and processes and the Goal-oriented Requirement
Language for business objectives. URN was recently extended with the concept of Key
Performance Indicator (KPI) to enable performance assessment and monitoring of business
processes. In jUCMNav, KPIs are currently calculated or modified manually. The
new integration proposed in this thesis maps these KPIs to report elements that are generated
automatically by Cognos based on the model defined in jUCMNav at runtime, with
minimum effort. We are using IBM Cognos Mashup Service, which includes web services
that enable the retrieval of report elements at the most granular level. This transformation
provides managers and analysts with useful goal-oriented and process-oriented
monitoring views fed by just-in-time BI information. This new solution also automates
retrieving data from Cognos servers, which helps reducing the high costs usually caused
by the amount of manual work required otherwise.
The novel approach presented in this thesis avoids manual report generation and
minimizes any contract with respect to the location of manually created reports, hence
leading to better usability and performance. The approach and its tool support are illustrated
with an ongoing example, validated with a case study, and verified through testing.
|
207 |
Combining Business Intelligence, Indicators, and the User Requirements Notation for Performance MonitoringJohari Shirazi, Iman January 2012 (has links)
Organizations use Business Intelligence (BI) systems to monitor how well they are meeting
their goals and objectives. Yet, very often BI systems do not include clear models of
the organization’s goals or of how to measure whether they are satisfied or not. Several
researchers now attempt to integrate goal models into BI systems, but there are still major
challenges related to how to get access to the BI data to populate the part of the goal
model (often indicators) used to assess goal satisfaction.
This thesis explores a new approach to integrate BI systems with goal models. In
particular, it explores the integration of IBM Cognos Business Intelligence, a leading BI
tool, with an Eclipse-based goal modeling tool named jUCMNav. jUCMNav is an open
source graphical editor for the User Requirements Notation (URN), which includes the
Use Case Map notation for scenarios and processes and the Goal-oriented Requirement
Language for business objectives. URN was recently extended with the concept of Key
Performance Indicator (KPI) to enable performance assessment and monitoring of business
processes. In jUCMNav, KPIs are currently calculated or modified manually. The
new integration proposed in this thesis maps these KPIs to report elements that are generated
automatically by Cognos based on the model defined in jUCMNav at runtime, with
minimum effort. We are using IBM Cognos Mashup Service, which includes web services
that enable the retrieval of report elements at the most granular level. This transformation
provides managers and analysts with useful goal-oriented and process-oriented
monitoring views fed by just-in-time BI information. This new solution also automates
retrieving data from Cognos servers, which helps reducing the high costs usually caused
by the amount of manual work required otherwise.
The novel approach presented in this thesis avoids manual report generation and
minimizes any contract with respect to the location of manually created reports, hence
leading to better usability and performance. The approach and its tool support are illustrated
with an ongoing example, validated with a case study, and verified through testing.
|
208 |
IBMs stordators framtid i en molnbaserad IT värld : Kommer IBMs stordator att överleva ytterligare ettparadigmskifte eller har den spelat ut sin roll? / IBM ́s mainframe computers future in a cloudbased IT environment : Will IBM ́s Mainframe computer survive another paradigmshift, or is it on its way out?David, Östling January 2016 (has links)
IT analytiker har många gånger gett IBMs stordator en dödsdom. Redan 1991 skrev denerkände kritikern Stewart Alsop, dåvarande chefredaktör på InfoWorld att den sista stordatornskulle tas ur bruk den 15 mars 1996. Det visade sig att detta uttalande var felaktigt, vilketStewart Alsop även erkände i InfoWorld bara dagar innan hans förutsägelse skulle ha infallit.När vi nu går in i ytterligare ett paradigmskifte i och med att många tjänster går över tillmolnet, ställer jag i denna uppsats frågan om IBMs stordator har en framtid i en molnbaseradIT värld, och hur den i så fall ser ut. Syftet är att genom litteraturstudier och intervjuer undersöka om IBMs stordator kan överlevaytterligare en genomomgripande teknikrevolution eller om den har spelat ut sin roll.Undersökningen mynnar ut i slutsatserna att IBMs stordator har en stark position i dagsläget,framförallt inom bank och finanssektorn d.v.s. inom branscher med speciellt höga kravbeträffande tillgänglighet, skalbarhet, och säkerhet. Sannolikt har stordatorn en viktig roll attspela även för framtidens satsningar i molnet. IBM erbjuder redan idag molnlösningar sominkluderar mainframes, och det framgick även i de intervjuer som gjordes på IBM, att de seren ljus framtid för IBMs stordatorer. De menar att IBM inte bara följer med, utan även är medoch leder utvecklingen inom molntjänster, och att det är främst för de öppna standarderna somLinux och Unix som IBM kommer att ha den ljusaste framtiden. Det faktum att IBM varje årinvesterar miljardbelopp i utvecklingen av sina stordatorer talar också sitt tydliga språk, d.v.s.att IBM fullt ut verkar tro på att stordatorn har en viktig roll att spela i den molnbaserade ITvärldsom just nu växer fram
|
209 |
Data Governance : A conceptual framework in order to prevent your Data Lake from becoming a Data SwampPaschalidi, Charikleia January 2015 (has links)
Information Security nowadays is becoming a very popular subject of discussion among both academics and organizations. Proper Data Governance is the first step to an effective Information Security policy. As a consequence, more and more organizations are now switching their approach to data, considering them as assets, in order to get as much value as possible out of it. Living in an IT-driven world makes a lot of researchers to approach Data Governance by borrowing IT Governance frameworks.The aim of this thesis is to contribute to this research by doing an Action Research in a big Financial Institution in the Netherlands that is currently releasing a Data Lake where all the data will be gathered and stored in a secure way. During this research a framework on implementing a proper Data Governance into the Data Lake is introduced.The results were promising and indicate that under specific circumstances, this framework could be very beneficial not only for this specific institution, but for every organisation that would like to avoid confusions and apply Data Governance into their tasks. / <p>Validerat; 20151222 (global_studentproject_submitter)</p>
|
210 |
全球前四大PC廠商經營策略變化之研究 / The Study Of Golbal Big-4 PC Company's Strategic Managent - 1997~1998賴淑華, Lai, Shu-Hua Unknown Date (has links)
本研究從PC產業環境分析為起點,先了解PC產業環境在1997年至1998年之前後變化,影響PC產業發展之因素:第三章再分別簡介全球前四大PC廠商,包括其營運現況、歷史發展、市場定位與競爭條件,以及面臨的挑戰;第四章則是以司徒達賢老師所著之策略管理一書(1996年遠流出版)中的六大事業策略構面(請參考圖1-1)為分析架構,來了解1997年至1998年之間全球前四大PC廠商的策略形態為何,策略和當時的環境、條件怎麼配合,以及這四家公司功能政策與事業策略之間的配合(請參考圖1-2)。結論部份的分析基礎架構則以策略矩陣(請參考圖1-3)來表達這四家公司的各種策略組合之思考為何,並解說這四家公司的未來發展動向。
在分析了全球前四大PC廠商策略之後,以及在PC產業趨勢為大者恆大的特性之下,雖然大廠的策略動則觀瞻,但是是以全球面來思考資源運用,小廠生活空間雖被擠壓,仍有細縫可據以重點經營;不管國際資訊大廠是不是因為要低價搶佔市場佔有率,而不得不來臺灣大量採購或尋求代工夥伴,以取得價格競爭力;或是要朝高階PC發展以取得較大獲利空間,臺灣電腦系統廠商與代工廠商面對大廠的動作,可採取下列作法因應:
1. 採相關多角化經營策略來分散風險,作法是檢視公司所擁有的有形/無形的資源或資產裡,有那一些可運用在可見的未來環境裡,成為有潛力或發展性的產品或服務,尤其要朝技術升級方向思考。
2. 在PC產業愈來愈成熟的情況之下,產品也會愈趨於標準化,因此為了追求降低成本,需到生產成本較低的地方生產。另一方面,消費者需求多變而複雜,因此為了快速提供符合市場需求的產品或服務,也必須進行海外投資,以靠近市場,所以必須國際化。
3. 將資源集中在最有把握的領域,以精耕、深耕的方式耕耘市場,提供符合該市場需求的產品或服務,採取重點區域經營的策略。
最後以宏□電腦公司與華碩電腦公司作為說明台灣業者在思考其他發展方向時,亦朝此三個方向移動的例證。
目錄
第一章 緒論 1
一、研究動機與目的 1
二、研究範圍 2
三、研究方法與架構 2
四、研究限制 6
第二章 外在環境分析 7
第一節 1995年至1996年之PC產業環境分析 7
一、1995年至1996年之PC 發展動向 7
二、1995年至1996年之PC廠商的排名 9
第二節1997至1998年之PC產業環境分析 10
一、1997年至1998年之PC 發展動向 10
二、1997年至1998年全球PC市場概況 12
三、1997年至1998年之PC廠商的排名 20
四、1997年至1998年間各區域市場的發展 22
第三節 1998年後之個人電腦產業發展趨勢 27
一、PC未來重要性不變,但走向低價、高效能 28
二、後PC時代 29
三、Y2K、Windows 2000與Intel發表新產品的影響 31
四、網際網路與電子商務發展快速 32
五、3C 整合 33
六、亞太PC市場復甦在望 33
七、移動式運算(Mobile Computing)漸漸盛行 34
第三章 全球前四大PC廠商之簡介與優劣勢分析 35
第一節 Compaq 電腦公司簡介 35
一、Compaq電腦公司現況簡介: 35
二、Compaq電腦公司發展沿革 36
三、Compaq電腦公司營收狀況 38
四、Compaq電腦公司組織與成長 40
五、Compaq電腦公司的條件與目標 43
第二節 IBM 公司簡介 48
一、IBM公司現況簡介: 48
二、IBM公司發展沿革 49
三、IBM公司營收狀況 52
四、IBM公司組織與成長 56
五、IBM公司的條件與目標 56
第三節 HP公司簡介 61
一、HP公司現況簡介: 61
二、HP公司發展沿革 62
三、HP公司營收狀況 65
四、HP公司組織與成長 68
五、HP公司的條件與目標 70
第四節DELL電腦公司簡介 75
一、DELL電腦公司現況簡介: 75
二、DELL電腦公司發展沿革 76
三、DELL電腦公司營收狀況 78
四、DELL電腦公司組織與成長 81
五、DELL電腦公司的條件與目標 82
第四章 全球前四大PC廠商之策略型態分析 88
第一節Compaq電腦公司的策略型態分析 88
一、Compaq電腦公司策略型態 89
二、Compaq電腦公司的功能政策 90
第二節IBM公司的策略型態分析 101
一、IBM公司的策略形態 101
二、IBM公司的功能政策 102
第三節HP公司的策略型態分析 113
一、HP公司的策略形態 113
二、HP公司的功能政策 114
第四節DELL電腦公司的策略型態分析 122
一、DELL電腦公司的策略形態 122
二、DELL電腦公司的功能政策 123
第五章 結論與建議 136
第一節 各公司之經營策略分析 136
一、產品/價格策略矩陣分析 136
二、各公司之接單生產與通路組裝策略矩陣分析 144
三、各公司之經銷模式分析 149
四、各公司之購併策略與公司整體策略分析 155
五、對各公司在1997年至1998年之營運策略之看法 161
第二節 各公司之未來發展動向 168
一、Compaq電腦公司的未來發展動向 169
二、IBM電腦公司之未來發展動向 178
三、HP電腦公司之未來發展動向 184
四、DELL 電腦公司之未來發展動向 191
第三節 各公司策略動向對臺灣廠商策略之影響與建議 197
一、各公司策略動向對我國系統廠商策略之影響 197
二、各公司策略動向對我國資訊產品代工廠商策略之影響 198
三、臺灣廠商的的優勢 213
四、臺灣廠商的未來因應做法與建議 217
五、例證說明臺灣廠商的做法 218
參考文獻 227
一、參考書目 227
二、期刊 228
三、線上新聞 230
四、網站 230
|
Page generated in 0.0225 seconds