241 |
Housing and discrimination in economics : an empirical approach using Big Data and natural experiments / Logement et discrimination en économie : une approche empirique mêlant expérience naturelle et Big DataEyméoud, Jean-Benoît 24 October 2018 (has links)
Le premier chapitre documente un paramètre clé pour comprendre le marché du logement : l'élasticité de l'offre de logements des aires urbaines françaises. Nous montrons que cette élasticité peut être appréhendée de deux manières en considérant l’offre intensive et extensive de logements. Grâce à une quantité importante de nouvelles données collectées et une stratégie d'estimation originale, ce premier chapitre estime et décompose les deux élasticités. Le deuxième chapitre est consacré aux possibilités offertes par le Big Data pour étudier le marché de logement locatif français. En exploitant des données en ligne de décembre 2015 à juin 2017 et comparant ces données aux données administratives classiques, nous montons qu’internet fournit des données permettant de suivre avec exactitude les marchés immobiliers locaux. Le troisième chapitre porte sur la discrimination des femmes en politique. Il exploite une expérience naturelle, les élections départementales françaises de 2015 au cours desquelles, pour la première fois dans l'histoire des élections françaises, les candidats ont dû se présenter par paires de candidats obligatoirement mixtes. En utilisant le fait que l'ordre d'apparition des candidats sur un bulletin de vote était déterminé par l’ordre alphabétique et en montrant que cette règle ne semble pas avoir été utilisée de façon stratégique par les partis, nous montrons d’une part que la position des femmes sur le bulletin de vote est aléatoire, et d’autre part, que les binômes de droite pour qui le nom du candidat féminin est en première position sur le bulletin reçoivent en moyenne 1,5 point de pourcentage de moins de votes / The first chapter documents a key parameter to understand the housing market: the elasticity of housing supply in French urban areas. We show that this elasticity can be apprehended in two ways by considering the intensive and extensive supply of housing. Thanks to a large amount of new data collected and an original estimation strategy, this first chapter estimates and decomposes the two elasticities. The second chapter is devoted to the possibilities offered by Big Data for studying the French rental housing market. By using online data from December 2015 to June 2017 and comparing this data with traditional administrative data, we find that the Internet provides data to accurately track local real estate markets.The third chapter deals with the discrimination of women in politics. It exploits a natural experiment, the French departmental elections of 2015 during which, for the first time in the history of the French elections, the candidates had to present themselves in pairs of candidates necessarily mixed. Using the fact that the order of appearance of the candidates on a ballot was determined by the alphabetical order and showing that this rule does not seem to have been used strategically by the parties, we show, first, that the position of women on the ballot is random, and second, that the right-hand pairs for whom the name of the female candidate is in first position on the ballot receive on average 1.5 percentage points less than votes.
|
242 |
Val av revisionsbyrå i fastighetsbolagDodik, Stjepan, Siudzinski, Christoffer January 2020 (has links)
Vid val av revisionsbyrå är det flera interna och externa faktorer som är av betydande roll för bolag. Studiens syfte är att undersöka ifall det finns några skillnader vid val av revisionsbyrå för små- och stora fastighetsbolag i Sverige. Mer detaljerat syftar studien på att undersöka ifall revisionsbyråer tillhörandes Big Four förkommer mer frekvent för någon av de två storleksgrupperna förenat med olika faktorer. Studien är gjord genom analys av kvantitativ data där olika nyckeltal samlats in från de 100 största och minsta fastighetsbolagen i Sverige sett ur omsättning. Som teoretisk referensram har agentteorin använts. Teorin har kompletterats av olika vetenskapliga studier som sammanfattats i en litteraturöversikt. Genom teoretisk referensram och litteraturöversikt har studiens tre hypoteser bildats som det redogörs för i hypotesbildningen. I studiens resultat redogörs det för att de olika faktorer som undersökts i samband med val av revisionsbyrå inte har något positivt samband med varandra. Slutsatsen förtydligar att val av revisionsbyrå tillhörandes Big Four inte förekommer mer frekvent i vare sig små eller stora svenska fastighetsbolag. / There are several internal and external factors that are highly important when companies choose auditing firms. The aim of this study is to investigate if there is any difference between small- and big Real Estate firms regarding choice of auditing firm in Sweden. The study will more precisely investigate if auditing firms belonging to Big Four appears more frequently in any of the groups in connection with different factors. An analysis with quantitative data has been used where indicators for the 100 smallest and biggest Real Estate firms in Sweden measured by revenue have been analysed. Agency Theory has been used as theoretical framework along with a literature review that has been the base of the hypotheses in the study. In the result of the study it is being stated that different factors that have been investigated do not have any positive correlation with the choice of auditing firm in small and big Swedish Real Estate firms. The conclusion of the study states that choice of auditing firm belonging to Big Four do not appear more frequently depending on any of the investigated factors in any of the size groups in Swedish Real Estate companies.
|
243 |
L'influence des traits de personnalité sur les attributs recherchés chez un employeur potentiel : Une étude comparative salariés / étudiants / The influence of personality traits on a potential employer's desired attributes : A comparative study of employees and studentsGhiffi-Enlinger, Hind 27 November 2017 (has links)
L’acquisition des meilleurs profils représente un enjeu stratégique et une source de compétitivité pour les organisations, lesquelles se sont intéressées de plus en plus au développement d’outils et de pratiques pour se différencier sur le marché du travail en tant qu’employeurs.En effet, des facteurs tels que l’innovation technologique, les restructurations, la démographie et les fusions ont contribué à l’accroissement de la demande en terme de compétences pointues et profils spécifiques. Plus que jamais, attirer et retenir les meilleurs talents sont devenus une priorité et une garantie de succès des organisations.Au niveau de la recherche académique, l'attractivité de l'employeur a été abordée sous plusieurs angles, notamment depuis le développement du concept de la marque employeur. Cependant, malgré la richesse des écris sur le sujet, nous constatons qu'il existe une lacune concernant l'étude des caractéristiques individuelles et leurs effets sur le choix des candidats potentiels des attributs attractifs qui constituent la marque employeur.La présente thèse étudie l’influence des traits de personnalité des candidats potentiels sur le choix des attributs de la marque employeur.Pour cela, une étude quantitative sur un échantillon de 1062 candidats potentiels (salariés et étudiants) a été réalisée. Elle met en évidence la relation entre les traits de personnalité des candidats potentiels et leur influence sur le choix des attributs recherchés chez un employeur et fait également ressortir également des différences entre les deux catégories de l’échantillon.D’un point de vue théorique, cette étude contribue à l’enrichissement de la recherche sur le concept de la marque employeur, puisqu’il n'existe pas d'études qui traitent le lien entre la personnalité des candidats potentiels et les attributs perçus comme attractifs chez un employeur.D’un point de vue managérial, elle permet aux organisations de comprendre les conséquences des attributs organisationnels affichés et les personnalités susceptibles d’êtres attirées et ainsi donner la possibilité aux praticiens d’ajuster et ou orienter le contenu de la marque employeur selon les traits de personnalité recherchés. / Hiring the best profiles has become a source of competitive advantage as well as a strategic challenge for most organizations today. It constitutes one of the salient tasks of human resources practitioners as far as recruitment is concerned.The current organizational changes triggered by globalization, innovation, demography, mergers and acquisitions and restructuring among other things have made it mandatory for corporations to attract and retain the best talents in order to secure the organization’s success.At the academic level, employer attractiveness, seeking to understand the work value preferences of current and/or future employees, has been tackled from different facets since the emergence of the Employer Branding concept. However, we have noted a scarcity in studies dealing with individual features characterizing the Employer Branding concept as a strategic tool of competitiveness in analyzing both the influence of personality traits for potential candidates and the preferred employer’s attributes.We have conducted a quantitative study based on a sample of 1062 (students and employees). It highlights three key points: Firstly the study sheds the light on the relationship between the candidates personality traits and the employer’s sought attributes. Secondly, it shows the influence of individual characteristics on the candidate’s choice and finally, it highlights the difference among different sample’s categories.From a theoretical point of view, the results derived from this study enrich our understanding of the employer branding by confirming the relationship between personality traits and organisational attributes.From a managerial point of view, the study reveals to practioners the importance of the communication about the components of the employer branding and the personality characteristics of the would-be potential candidates. It also paves the way for the employer to adjust or orient the contents of the employer branding according to personality traits sought by the organization.
|
244 |
Real-time probabilistic reasoning system using Lambda architectureAnikwue, Arinze January 2019 (has links)
Thesis (MTech (Information Technology))--Cape Peninsula University of Technology, 2019 / The proliferation of data from sources like social media, and sensor devices has become overwhelming for traditional data storage and analysis technologies to handle. This has prompted a radical improvement in data management techniques, tools and technologies to meet the increasing demand for effective collection, storage and curation of large data set. Most of the technologies are open-source.
Big data is usually described as very large dataset. However, a major feature of big data is its velocity. Data flow in as continuous stream and require to be actioned in real-time to enable meaningful, relevant value. Although there is an explosion of technologies to handle big data, they are usually targeted at processing large dataset (historic) and real-time big data independently. Thus, the need for a unified framework to handle high volume dataset and real-time big data. This resulted in the development of models such as the Lambda architecture.
Effective decision-making requires processing of historic data as well as real-time data. Some decision-making involves complex processes, depending on the likelihood of events. To handle uncertainty, probabilistic systems were designed. Probabilistic systems use probabilistic models developed with probability theories such as hidden Markov models with inference algorithms to process data and produce probabilistic scores. However, development of these models requires extensive knowledge of statistics and machine learning, making it an uphill task to model real-life circumstances. A new research area called probabilistic programming has been introduced to alleviate this bottleneck.
This research proposes the combination of modern open-source big data technologies with probabilistic programming and Lambda architecture on easy-to-get hardware to develop a highly fault-tolerant, and scalable processing tool to process both historic and real-time big data in real-time; a common solution. This system will empower decision makers with the capacity to make better informed resolutions especially in the face of uncertainty.
The outcome of this research will be a technology product, built and assessed using experimental evaluation methods. This research will utilize the Design Science Research (DSR) methodology as it describes guidelines for the effective and rigorous construction and evaluation of an artefact. Probabilistic programming in the big data domain is still at its infancy, however, the developed artefact demonstrated an important potential of probabilistic programming combined with Lambda architecture in the processing of big data.
|
245 |
Secure Distributed MapReduce Protocols : How to have privacy-preserving cloud applications? / Protocoles distribués et sécurisés pour le paradigme MapReduce : Comment avoir des applications dans les nuages respectueuses de la vie privée ?Giraud, Matthieu 24 September 2019 (has links)
À l’heure des réseaux sociaux et des objets connectés, de nombreuses et diverses données sont produites à chaque instant. L’analyse de ces données a donné lieu à une nouvelle science nommée "Big Data". Pour traiter du mieux possible ce flux incessant de données, de nouvelles méthodes de calcul ont vu le jour. Les travaux de cette thèse portent sur la cryptographie appliquée au traitement de grands volumes de données, avec comme finalité la protection des données des utilisateurs. En particulier, nous nous intéressons à la sécurisation d’algorithmes utilisant le paradigme de calcul distribué MapReduce pour réaliser un certain nombre de primitives (ou algorithmes) indispensables aux opérations de traitement de données, allant du calcul de métriques de graphes (e.g. PageRank) aux requêtes SQL (i.e. intersection d’ensembles, agrégation, jointure naturelle). Nous traitons dans la première partie de cette thèse de la multiplication de matrices. Nous décrivons d’abord une multiplication matricielle standard et sécurisée pour l’architecture MapReduce qui est basée sur l’utilisation du chiffrement additif de Paillier pour garantir la confidentialité des données. Les algorithmes proposés correspondent à une hypothèse spécifique de sécurité : collusion ou non des nœuds du cluster MapReduce, le modèle général de sécurité étant honnête mais curieux. L’objectif est de protéger la confidentialité de l’une et l’autre matrice, ainsi que le résultat final, et ce pour tous les participants (propriétaires des matrices, nœuds de calcul, utilisateur souhaitant calculer le résultat). D’autre part, nous exploitons également l’algorithme de multiplication de matrices de Strassen-Winograd, dont la complexité asymptotique est O(n^log2(7)) soit environ O(n^2.81) ce qui est une amélioration par rapport à la multiplication matricielle standard. Une nouvelle version de cet algorithme adaptée au paradigme MapReduce est proposée. L’hypothèse de sécurité adoptée ici est limitée à la non-collusion entre le cloud et l’utilisateur final. La version sécurisée utilise comme pour la multiplication standard l’algorithme de chiffrement Paillier. La seconde partie de cette thèse porte sur la protection des données lorsque des opérations d’algèbre relationnelle sont déléguées à un serveur public de cloud qui implémente à nouveau le paradigme MapReduce. En particulier, nous présentons une solution d’intersection sécurisée qui permet à un utilisateur du cloud d’obtenir l’intersection de n > 1 relations appartenant à n propriétaires de données. Dans cette solution, tous les propriétaires de données partagent une clé et un propriétaire de données sélectionné partage une clé avec chacune des clés restantes. Par conséquent, alors que ce propriétaire de données spécifique stocke n clés, les autres propriétaires n’en stockent que deux. Le chiffrement du tuple de relation réelle consiste à combiner l’utilisation d’un chiffrement asymétrique avec une fonction pseudo-aléatoire. Une fois que les données sont stockées dans le cloud, chaque réducteur (Reducer) se voit attribuer une relation particulière. S’il existe n éléments différents, des opérations XOR sont effectuées. La solution proposée reste donc très efficace. Par la suite, nous décrivons les variantes des opérations de regroupement et d’agrégation préservant la confidentialité en termes de performance et de sécurité. Les solutions proposées associent l’utilisation de fonctions pseudo-aléatoires à celle du chiffrement homomorphe pour les opérations COUNT, SUM et AVG et à un chiffrement préservant l’ordre pour les opérations MIN et MAX. Enfin, nous proposons les versions sécurisées de deux protocoles de jointure (cascade et hypercube) adaptées au paradigme MapReduce. Les solutions consistent à utiliser des fonctions pseudo-aléatoires pour effectuer des contrôles d’égalité et ainsi permettre les opérations de jointure lorsque des composants communs sont détectés.(...) / In the age of social networks and connected objects, many and diverse data are produced at every moment. The analysis of these data has led to a new science called "Big Data". To best handle this constant flow of data, new calculation methods have emerged.This thesis focuses on cryptography applied to processing of large volumes of data, with the aim of protection of user data. In particular, we focus on securing algorithms using the distributed computing MapReduce paradigm to perform a number of primitives (or algorithms) essential for data processing, ranging from the calculation of graph metrics (e.g. PageRank) to SQL queries (i.e. set intersection, aggregation, natural join).In the first part of this thesis, we discuss the multiplication of matrices. We first describe a standard and secure matrix multiplication for the MapReduce architecture that is based on the Paillier’s additive encryption scheme to guarantee the confidentiality of the data. The proposed algorithms correspond to a specific security hypothesis: collusion or not of MapReduce cluster nodes, the general security model being honest-but-curious. The aim is to protect the confidentiality of both matrices, as well as the final result, and this for all participants (matrix owners, calculation nodes, user wishing to compute the result). On the other hand, we also use the matrix multiplication algorithm of Strassen-Winograd, whose asymptotic complexity is O(n^log2(7)) or about O(n^2.81) which is an improvement compared to the standard matrix multiplication. A new version of this algorithm adapted to the MapReduce paradigm is proposed. The safety assumption adopted here is limited to the non-collusion between the cloud and the end user. The version uses the Paillier’s encryption scheme.The second part of this thesis focuses on data protection when relational algebra operations are delegated to a public cloud server using the MapReduce paradigm. In particular, we present a secureintersection solution that allows a cloud user to obtain the intersection of n > 1 relations belonging to n data owners. In this solution, all data owners share a key and a selected data owner sharesa key with each of the remaining keys. Therefore, while this specific data owner stores n keys, the other owners only store two keys. The encryption of the real relation tuple consists in combining the use of asymmetric encryption with a pseudo-random function. Once the data is stored in the cloud, each reducer is assigned a specific relation. If there are n different elements, XOR operations are performed. The proposed solution is very effective. Next, we describe the variants of grouping and aggregation operations that preserve confidentiality in terms of performance and security. The proposed solutions combine the use of pseudo-random functions with the use of homomorphic encryption for COUNT, SUM and AVG operations and order preserving encryption for MIN and MAX operations. Finally, we offer secure versions of two protocols (cascade and hypercube) adapted to the MapReduce paradigm. The solutions consist in using pseudo-random functions to perform equality checks and thus allow joining operations when common components are detected. All the solutions described above are evaluated and their security proven.
|
246 |
Personalising privacy contraints in Generalization-based Anonymization Models / Personnalisation de protection de la vie privée sur des modèles d'anonymisation basés sur des généralisationsMichel, Axel 08 April 2019 (has links)
Les bénéfices engendrés par les études statistiques sur les données personnelles des individus sont nombreux, que ce soit dans le médical, l'énergie ou la gestion du trafic urbain pour n'en citer que quelques-uns. Les initiatives publiques de smart-disclosure et d'ouverture des données rendent ces études statistiques indispensables pour les institutions et industries tout autour du globe. Cependant, ces calculs peuvent exposer les données personnelles des individus, portant ainsi atteinte à leur vie privée. Les individus sont alors de plus en plus réticent à participer à des études statistiques malgré les protections garanties par les instituts. Pour retrouver la confiance des individus, il devient nécessaire de proposer dessolutions de user empowerment, c'est-à-dire permettre à chaque utilisateur de contrôler les paramètres de protection des données personnelles les concernant qui sont utilisées pour des calculs.Cette thèse développe donc un nouveau concept d'anonymisation personnalisé, basé sur la généralisation de données et sur le user empowerment.En premier lieu, ce manuscrit propose une nouvelle approche mettant en avant la personnalisation des protections de la vie privée par les individus, lors de calculs d'agrégation dans une base de données. De cette façon les individus peuvent fournir des données de précision variable, en fonction de leur perception du risque. De plus, nous utilisons une architecture décentralisée basée sur du matériel sécurisé assurant ainsi les garanties de respect de la vie privée tout au long des opérations d'agrégation.En deuxième lieu, ce manuscrit étudie la personnalisations des garanties d'anonymat lors de la publication de jeux de données anonymisés. Nous proposons l'adaptation d'heuristiques existantes ainsi qu'une nouvelle approche basée sur la programmation par contraintes. Des expérimentations ont été menées pour étudier l'impact d’une telle personnalisation sur la qualité des données. Les contraintes d’anonymat ont été construites et simulées de façon réaliste en se basant sur des résultats d'études sociologiques. / The benefit of performing Big data computations over individual’s microdata is manifold, in the medical, energy or transportation fields to cite only a few, and this interest is growing with the emergence of smart-disclosure initiatives around the world. However, these computations often expose microdata to privacy leakages, explaining the reluctance of individuals to participate in studies despite the privacy guarantees promised by statistical institutes. To regain indivuals’trust, it becomes essential to propose user empowerment solutions, that is to say allowing individuals to control the privacy parameter used to make computations over their microdata.This work proposes a novel concept of personalized anonymisation based on data generalization and user empowerment.Firstly, this manuscript proposes a novel approach to push personalized privacy guarantees in the processing of database queries so that individuals can disclose different amounts of information (i.e. data at different levels of accuracy) depending on their own perception of the risk. Moreover, we propose a decentralized computing infrastructure based on secure hardware enforcing these personalized privacy guarantees all along the query execution process.Secondly, this manuscript studies the personalization of anonymity guarantees when publishing data. We propose the adaptation of existing heuristics and a new approach based on constraint programming. Experiments have been done to show the impact of such personalization on the data quality. Individuals’privacy constraints have been built and realistically using social statistic studies
|
247 |
Vztah koučování, self-efficacy, engagementu a osobnosti zaměstnanců maloobchodní společnosti / The relationship of coaching, self-efficacy, engagement and personality of employees in retailZvěřinová, Kristýna January 2019 (has links)
The aim of this thesis is to find a relationship between coaching, self-efficacy, employee engagement and personality traits according to the Big Five theory, that means openness to experience, conscientiousness, extraversion, agreeableness and neuroticism. In the theoretical part, the thesis is devoted to measuring the effectiveness of coaching interventions, with a focus on finding connections with the concepts of self-efficacy, engagement and personality traits. The empirical part describes a quasi-experimental research verifying the assumption, that coaching had a significant impact on all monitored independent variables. The experimental group consisted of store managers of unnamed retail company, which were divided into experimental and control group. The experimental group attended six coaching sessions over six months, focusing on any topic related to their work life. The control group did not attend any coaching session. Both groups were tested at the beginning of the coaching program and afterwards. Respondents completed three questionnaires - General Self-Efficacy Scale, Gallup Q12 questionnaire for engagement and NEO five-factor personality inventory. Based on the collected data and statistical analysis, a statistically significant difference was found between the pretest and posttest...
|
248 |
The role of large research infrastructures in scientifics creativity : a user-level analysis in the cases of a biological database platform and a synchrotron / Le rôle des grandes infrastructures de recherche dans la créativité scientifique : analyse au niveau de l'utilisateur dans le cas d'une plate-forme de base de données biologique et d'un synchrotronMoratal Ferrando, Núria 28 February 2019 (has links)
A l'origine de cette thèse il y a le constat d’une science en changement. Ce changement se caractérise par deux grandes tendances globales : la dépendance croissante à des grands équipements coûteux et partagés et la production de données de masse qui sont également très coûteuses à stocker et gérer. Dans les deux cas ces ressources sont financées par des programmes publics et proposés à la communauté scientifique selon un principe d’ouverture à des utilisateurs extérieurs sous forme de Infrastructures de recherche (IR). Plusieurs facteurs peuvent nous amener à penser que les IR sont des lieux favorables à la créativité. Cependant les moyens par lesquels les IR favorisent la créativité n’ont pas été étudiés. L’objectif de cette thèse est de répondre à cette question. La problématique se décline en deux sous-questions de recherche. D’abord nous nous demandons, comment les IR peuvent-elles contribuer à la créativité scientifique de leurs utilisateurs ? Puis nous nous interrogeons sur : comment mesurer cet impact ? / At the origin of this thesis there is the observation of a changing science. This change is characterized by two major global trends: the growing reliance on large expensive and shared equipment and the production of mass data which are also very expensive to store and manage. In both cases these resources are financed by public programs and proposed to the scientific community according to a principle of openness to external users in the form of Research Infrastructures (RIs). Several factors may lead us to believe that RIs are favourable places for creativity. However, the means by which RIs promote creativity have not been studied. The purpose of this thesis is to answer this question. The research question is divided into two sub-questions of research. First, we wonder how IRs can contribute to the scientific creativity of their users. Then we ask ourselves: how to measure this impact
|
249 |
HopsWorks : A project-based access control model for HadoopMoré, Andre, Gebremeskel, Ermias January 2015 (has links)
The growth in the global data gathering capacity is producing a vast amount of data which is getting vaster at an increasingly faster rate. This data properly analyzed can represent great opportunity for businesses, but processing it is a resource-intensive task. Sharing can increase efficiency due to reusability but there are legal and ethical questions that arise when data is shared. The purpose of this thesis is to gain an in depth understanding of the different access control methods that can be used to facilitate sharing, and choose one to implement on a platform that lets user analyze, share, and collaborate on, datasets. The resulting platform uses a project based access control on the API level and a fine-grained role based access control on the file system to give full control over the shared data to the data owner. / I dagsläget så genereras och samlas det in oerhört stora mängder data som växer i ett allt högre tempo för varje dag som går. Den korrekt analyserade datan skulle kunna erbjuda stora möjligheter för företag men problemet är att det är väldigt resurskrävande att bearbeta. Att göra det möjligt för organisationer att dela med sig utav datan skulle effektivisera det hela tack vare återanvändandet av data men det dyker då upp olika frågor kring lagliga samt etiska aspekter när man delar dessa data. Syftet med denna rapport är att få en djupare förståelse för dom olika åtkomstmetoder som kan användas vid delning av data för att sedan kunna välja den metod som man ansett vara mest lämplig att använda sig utav i en plattform. Plattformen kommer att användas av användare som vill skapa projekt där man vill analysera, dela och arbeta med DataSets, vidare kommer plattformens säkerhet att implementeras med en projekt-baserad åtkomstkontroll på API nivå och detaljerad rollbaserad åtkomstkontroll på filsystemet för att ge dataägaren full kontroll över den data som delas
|
250 |
The Civilian Conservation Corps in Big Bend National ParkJackson, Kimberly 05 1900 (has links)
During the New Deal, the Civilian Conservation Corps (CCC) put young men to work in state and national parks across the United States. One of such parks, Big Bend National Park, is the focus of this study. The CCC had two camps within the park, one from 1934 to 1937 and another from 1940 to 1942. During their time in Big Bend, the CCC constructed many projects including a road, trails, cabins, and other various structures. The purpose of this study is to delineate the role of the CCC in creating Big Bend National Park and the experience of the CCC during their time in the Big Bend camp. This study determines the role of the CCC through a discussion of the planning done by the CCC for Big Bend National Park and the work completed by the CCC in the park. In doing so, it argues that the CCC played a substantial and significant role in the development and character of the park. This study works to understand the experience of the CCC in Big Bend through a discussion of education, safety, and an investigation of a commanding officer. Through this discussion, the role of the federal government and national organization in the local camps can be seen, as can the value they placed in the enrollees.
|
Page generated in 0.0363 seconds