141 |
Effiziente MapReduce-Parallelisierung von Entity Resolution-WorkflowsKolb, Lars 11 December 2014 (has links) (PDF)
In den vergangenen Jahren hat das neu entstandene Paradigma Infrastructure as a Service die IT-Welt massiv verändert. Die Bereitstellung von Recheninfrastruktur durch externe Dienstleister bietet die Möglichkeit, bei Bedarf in kurzer Zeit eine große Menge von Rechenleistung, Speicherplatz und Bandbreite ohne Vorabinvestitionen zu akquirieren. Gleichzeitig steigt sowohl die Menge der frei verfügbaren als auch der in Unternehmen zu verwaltenden Daten dramatisch an. Die Notwendigkeit zur effizienten Verwaltung und Auswertung dieser Datenmengen erforderte eine Weiterentwicklung bestehender IT-Technologien und führte zur Entstehung neuer Forschungsgebiete und einer Vielzahl innovativer Systeme. Ein typisches Merkmal dieser Systeme ist die verteilte Speicherung und Datenverarbeitung in großen Rechnerclustern bestehend aus Standard-Hardware. Besonders das MapReduce-Programmiermodell hat in den vergangenen zehn Jahren zunehmend an Bedeutung gewonnen. Es ermöglicht eine verteilte Verarbeitung großer Datenmengen und abstrahiert von den Details des verteilten Rechnens sowie der Behandlung von Hardwarefehlern. Innerhalb dieser Dissertation steht die Nutzung des MapReduce-Konzeptes zur automatischen Parallelisierung rechenintensiver Entity Resolution-Aufgaben im Mittelpunkt. Entity Resolution ist ein wichtiger Teilbereich der Informationsintegration, dessen Ziel die Entdeckung von Datensätzen einer oder mehrerer Datenquellen ist, die dasselbe Realweltobjekt beschreiben. Im Rahmen der Dissertation werden schrittweise Verfahren präsentiert, welche verschiedene Teilprobleme der MapReduce-basierten Ausführung von Entity Resolution-Workflows lösen.
Zur Erkennung von Duplikaten vergleichen Entity Resolution-Verfahren üblicherweise Paare von Datensätzen mithilfe mehrerer Ähnlichkeitsmaße. Die Auswertung des Kartesischen Produktes von n Datensätzen führt dabei zu einer quadratischen Komplexität von O(n²) und ist deswegen nur für kleine bis mittelgroße Datenquellen praktikabel. Für Datenquellen mit mehr als 100.000 Datensätzen entstehen selbst bei verteilter Ausführung Laufzeiten von mehreren Stunden. Deswegen kommen sogenannte Blocking-Techniken zum Einsatz, die zur Reduzierung des Suchraums dienen. Die zugrundeliegende Annahme ist, dass Datensätze, die eine gewisse Mindestähnlichkeit unterschreiten, nicht miteinander verglichen werden müssen. Die Arbeit stellt eine MapReduce-basierte Umsetzung der Auswertung des Kartesischen Produktes sowie einiger bekannter Blocking-Verfahren vor. Nach dem Vergleich der Datensätze erfolgt abschließend eine Klassifikation der verglichenen Kandidaten-Paare in Match beziehungsweise Non-Match. Mit einer steigenden Anzahl verwendeter Attributwerte und Ähnlichkeitsmaße ist eine manuelle Festlegung einer qualitativ hochwertigen Strategie zur Kombination der resultierenden Ähnlichkeitswerte kaum mehr handhabbar. Aus diesem Grund untersucht die Arbeit die Integration maschineller Lernverfahren in MapReduce-basierte Entity Resolution-Workflows.
Eine Umsetzung von Blocking-Verfahren mit MapReduce bedingt eine Partitionierung der Menge der zu vergleichenden Paare sowie eine Zuweisung der Partitionen zu verfügbaren Prozessen. Die Zuweisung erfolgt auf Basis eines semantischen Schlüssels, der entsprechend der konkreten Blocking-Strategie aus den Attributwerten der Datensätze abgeleitet ist. Beispielsweise wäre es bei der Deduplizierung von Produktdatensätzen denkbar, lediglich Produkte des gleichen Herstellers miteinander zu vergleichen. Die Bearbeitung aller Datensätze desselben Schlüssels durch einen Prozess führt bei Datenungleichverteilung zu erheblichen Lastbalancierungsproblemen, die durch die inhärente quadratische Komplexität verschärft werden. Dies reduziert in drastischem Maße die Laufzeiteffizienz und Skalierbarkeit der entsprechenden MapReduce-Programme, da ein Großteil der Ressourcen eines Clusters nicht ausgelastet ist, wohingegen wenige Prozesse den Großteil der Arbeit verrichten müssen. Die Bereitstellung verschiedener Verfahren zur gleichmäßigen Ausnutzung der zur Verfügung stehenden Ressourcen stellt einen weiteren Schwerpunkt der Arbeit dar.
Blocking-Strategien müssen stets zwischen Effizienz und Datenqualität abwägen. Eine große Reduktion des Suchraums verspricht zwar eine signifikante Beschleunigung, führt jedoch dazu, dass ähnliche Datensätze, z. B. aufgrund fehlerhafter Attributwerte, nicht miteinander verglichen werden. Aus diesem Grunde ist es hilfreich, für jeden Datensatz mehrere von verschiedenen Attributen abgeleitete semantische Schlüssel zu generieren. Dies führt jedoch dazu, dass ähnliche Datensätze unnötigerweise mehrfach bezüglich verschiedener Schlüssel miteinander verglichen werden. Innerhalb der Arbeit werden deswegen Algorithmen zur Vermeidung solch redundanter Ähnlichkeitsberechnungen präsentiert.
Als Ergebnis dieser Arbeit wird das Entity Resolution-Framework Dedoop präsentiert, welches von den entwickelten MapReduce-Algorithmen abstrahiert und eine High-Level-Spezifikation komplexer Entity Resolution-Workflows ermöglicht. Dedoop fasst alle in dieser Arbeit vorgestellten Techniken und Optimierungen in einem nutzerfreundlichen System zusammen. Der Prototyp überführt nutzerdefinierte Workflows automatisch in eine Menge von MapReduce-Jobs und verwaltet deren parallele Ausführung in MapReduce-Clustern. Durch die vollständige Integration der Cloud-Dienste Amazon EC2 und Amazon S3 in Dedoop sowie dessen Verfügbarmachung ist es für Endnutzer ohne MapReduce-Kenntnisse möglich, komplexe Entity Resolution-Workflows in privaten oder dynamisch erstellten externen MapReduce-Clustern zu berechnen.
|
142 |
Modélisations et stratégie de prise pour la manipulation d'objets déformables / Modeling and grasping strategy for manipulation of deformable objectsZaidi, Lazher 22 March 2016 (has links)
La manipulation dextre est un sujet important dans la recherche en robotique et dans lequel peu de travaux ont abordé la manipulation d'objets déformables. De nouvelles applications en chirurgie, en industrie agroalimentaire ou encore dans les services à la personne nécessitent la maîtrise de la saisie et la manipulation d'objets déformables. Cette thèse s’intéresse à la manipulation d’objets déformables par des préhenseurs mécaniques anthropomorphiques tels que des mains articulées à plusieurs doigts. Cette tâche requière une grande expertise en modélisation mécanique et en commande : modélisation des interactions, perception tactile et par vision, contrôle des mouvements des doigts en position et en force pour assurer la stabilité de la saisie. Les travaux présentés dans cette thèse se focalisent sur la modélisation de la saisie d'objets déformables. Pour cela, nous avons utilisé une discrétisation par des systèmes masses-ressorts non-linéaires pour modéliser des corps déformables en grands déplacements et déformations tout en ayant un coût calculatoire faible. Afin de prédire les forces d’interactions entre main robotique et objet déformable, nous avons proposé une approche originale basée sur un modèle rhéologique visco-élasto-plastique pour évaluer les forces tangentielles de contact et décrire la transition entre les modes d’adhérence et de glissement. Les forces de contact sont évaluées aux points nodaux en fonction des mouvements relatifs entre les bouts des doigts et les facettes du maillage de la surface de l’objet manipulé. Une autre contribution de cette thèse consiste à utiliser de cette modélisation dans la planification des tâches de manipulation d’objets déformables 3D. Cette planification consiste à déterminer la configuration optimale de la main pour la saisie de l’objet ainsi que les trajectoires à suivre et les efforts à appliquer par les doigts pour contrôler la déformation de l’objet tout en assurant la stabilité de l’opération. La validation expérimentale de ces travaux a été réalisée sur deux plateformes robotiques : une main Barrett embarquée sur un bras manipulateur Adept S1700D et une main Shadow embarquée sur un bras manipulateur Kuka LWR4+. / Dexterous manipulation is an important issue in robotics research in which few works have tackled deformable object manipulation. New applications in surgery, food industry or in service robotics require mastering the grasping and manipulation of deformable objects. This thesis focuses on deformable object manipulation by anthropomorphic mechanical graspers such as multi-fingered articulated hands. This task requires a great expertise in mechanical modeling and control: interaction modeling, tactile and vision perception, force / position control of finger movements to ensure stable grasping. The work presented in this thesis focuses on modeling the grasping of deformable objects. To this end, we used a discretization by non-linear mass-spring systems to model deformable bodies in large displacements and deformations while having a low computational cost. To predict the interaction forces between robot hand and deformable object, we proposed an original approach based on a visco-elasto-plastic rheological model to evaluate tangential contact forces and describe the transition between the sticking and slipping modes. The contact forces are evaluated at nodes as function of the relative movements between the fingertips and the surface mesh facets of the manipulated object. Another contribution of this thesis is the use of this model in the planning of 3D deformable object manipulation tasks. This planning consists in determining the optimal configuration of the hand for grasping the objects as well as the paths to track and the efforts to be applied by the fingers to control the deformation of the object while ensuring the stability of the operation. The experimental validation of this work has been carried out on two robotic platforms: a Barrett hand embedded on a Adept S1700D ® manipulator and a Shadow hand embedded on a Kuka LWR4+® manipulator.
|
143 |
Numerical Simulation And Experimental Correlation Of Crack Closure Phenomenon Under Cyclic LoadingSeshadri, B R 06 1900 (has links) (PDF)
No description available.
|
144 |
Algebraic and definable closure in free groups / Clôture algébrique et définissable dans les groupes libresVallino, Daniele 05 June 2012 (has links)
Nous étudions la clôture algébrique et définissable dans les groupes libres. Les résultats principaux peuvent être résumés comme suit. Nous montrons un résultat de constructibilité des groupes hyperboliques sans torsion au-dessus de la clôture algébrique d'un sous-ensemble engendrant un groupe non abélien. Nous avons cherché à comprendre la place qu'occupe la clôture algébrique acl_G(A) dans certaines décompositions de G. Nous avons étudié la possibilité de la généralisation de la méthode de Bestvina-Paulin dans d'autres directions, en considérant les groupes de type fini qui agissent d'une manière acylindrique (au sens de Bowditch) sur les graphes hyperboliques. Enfin, nous avons étudié les relations qui existent entre les différentes notions de clôture algébrique et entre la clôture algébrique et la clôture définissable / In Chapter 1 we give basics on combinatorial group theory, starting from free groups and proceeding with the fundamental constructions: free products, amalgamated free products and HNN extensions. We outline a synthesis of Bass-Serre theory, preceded by a survey on Cayley graphs and graphs of groups. After proving the main theorem of Bass-Serre theory, we present its application to the proof of Kurosh subgroup theorem. Subsequently we recall main definitions and properties of hyperbolic spaces. In Section 1.4 we define algebraic and definable closures and recall a few other notions of model theory related to saturation and homogeneity. The last section of Chapter 1 is devoted to asymptotic cones. In Chapter 2 we prove a theorem similar to Bestvina-Paulin theorem on the limit of a sequence of actions on hyperbolic graphs. Our setting is more general: we consider Bowditch-acylindrical actions on arbitrary hyperbolic graphs. We prove that edge stabilizers are (finite bounded)-by-abelian, that tripod stabilizers are finite bounded and that unstable edge stabilizers are finite bounded. In Chapter 3 we introduce the essential notions on limit groups, shortening argument and JSJ decompositions. In Chapter 4 we present the results on constructibility of a torsion-free hyperbolic group from the algebraic closure of a subgroup. Also we discuss constructibility of a free group from the existential algebraic closure of a subgroup. We obtain a bound to the rank of the algebraic and definable closures of subgroups in torsion-free hyperbolic groups. In Section 4.2 we prove some results about the position of algebraic closures in JSJ decompositions of torsion-free hyperbolic groups and other results for free groups. Finally, in Chapter 5 we answer the question about equality between algebraic and definable closure in a free group. A positive answer has been given for a free group F of rank smaller than 3. Instead, for free groups of rank strictly greater than 3 we found some counterexample. For the free group of rank 3 we found a necessary condition on the form of a possible counterexample.
|
145 |
Effiziente MapReduce-Parallelisierung von Entity Resolution-WorkflowsKolb, Lars 08 December 2014 (has links)
In den vergangenen Jahren hat das neu entstandene Paradigma Infrastructure as a Service die IT-Welt massiv verändert. Die Bereitstellung von Recheninfrastruktur durch externe Dienstleister bietet die Möglichkeit, bei Bedarf in kurzer Zeit eine große Menge von Rechenleistung, Speicherplatz und Bandbreite ohne Vorabinvestitionen zu akquirieren. Gleichzeitig steigt sowohl die Menge der frei verfügbaren als auch der in Unternehmen zu verwaltenden Daten dramatisch an. Die Notwendigkeit zur effizienten Verwaltung und Auswertung dieser Datenmengen erforderte eine Weiterentwicklung bestehender IT-Technologien und führte zur Entstehung neuer Forschungsgebiete und einer Vielzahl innovativer Systeme. Ein typisches Merkmal dieser Systeme ist die verteilte Speicherung und Datenverarbeitung in großen Rechnerclustern bestehend aus Standard-Hardware. Besonders das MapReduce-Programmiermodell hat in den vergangenen zehn Jahren zunehmend an Bedeutung gewonnen. Es ermöglicht eine verteilte Verarbeitung großer Datenmengen und abstrahiert von den Details des verteilten Rechnens sowie der Behandlung von Hardwarefehlern. Innerhalb dieser Dissertation steht die Nutzung des MapReduce-Konzeptes zur automatischen Parallelisierung rechenintensiver Entity Resolution-Aufgaben im Mittelpunkt. Entity Resolution ist ein wichtiger Teilbereich der Informationsintegration, dessen Ziel die Entdeckung von Datensätzen einer oder mehrerer Datenquellen ist, die dasselbe Realweltobjekt beschreiben. Im Rahmen der Dissertation werden schrittweise Verfahren präsentiert, welche verschiedene Teilprobleme der MapReduce-basierten Ausführung von Entity Resolution-Workflows lösen.
Zur Erkennung von Duplikaten vergleichen Entity Resolution-Verfahren üblicherweise Paare von Datensätzen mithilfe mehrerer Ähnlichkeitsmaße. Die Auswertung des Kartesischen Produktes von n Datensätzen führt dabei zu einer quadratischen Komplexität von O(n²) und ist deswegen nur für kleine bis mittelgroße Datenquellen praktikabel. Für Datenquellen mit mehr als 100.000 Datensätzen entstehen selbst bei verteilter Ausführung Laufzeiten von mehreren Stunden. Deswegen kommen sogenannte Blocking-Techniken zum Einsatz, die zur Reduzierung des Suchraums dienen. Die zugrundeliegende Annahme ist, dass Datensätze, die eine gewisse Mindestähnlichkeit unterschreiten, nicht miteinander verglichen werden müssen. Die Arbeit stellt eine MapReduce-basierte Umsetzung der Auswertung des Kartesischen Produktes sowie einiger bekannter Blocking-Verfahren vor. Nach dem Vergleich der Datensätze erfolgt abschließend eine Klassifikation der verglichenen Kandidaten-Paare in Match beziehungsweise Non-Match. Mit einer steigenden Anzahl verwendeter Attributwerte und Ähnlichkeitsmaße ist eine manuelle Festlegung einer qualitativ hochwertigen Strategie zur Kombination der resultierenden Ähnlichkeitswerte kaum mehr handhabbar. Aus diesem Grund untersucht die Arbeit die Integration maschineller Lernverfahren in MapReduce-basierte Entity Resolution-Workflows.
Eine Umsetzung von Blocking-Verfahren mit MapReduce bedingt eine Partitionierung der Menge der zu vergleichenden Paare sowie eine Zuweisung der Partitionen zu verfügbaren Prozessen. Die Zuweisung erfolgt auf Basis eines semantischen Schlüssels, der entsprechend der konkreten Blocking-Strategie aus den Attributwerten der Datensätze abgeleitet ist. Beispielsweise wäre es bei der Deduplizierung von Produktdatensätzen denkbar, lediglich Produkte des gleichen Herstellers miteinander zu vergleichen. Die Bearbeitung aller Datensätze desselben Schlüssels durch einen Prozess führt bei Datenungleichverteilung zu erheblichen Lastbalancierungsproblemen, die durch die inhärente quadratische Komplexität verschärft werden. Dies reduziert in drastischem Maße die Laufzeiteffizienz und Skalierbarkeit der entsprechenden MapReduce-Programme, da ein Großteil der Ressourcen eines Clusters nicht ausgelastet ist, wohingegen wenige Prozesse den Großteil der Arbeit verrichten müssen. Die Bereitstellung verschiedener Verfahren zur gleichmäßigen Ausnutzung der zur Verfügung stehenden Ressourcen stellt einen weiteren Schwerpunkt der Arbeit dar.
Blocking-Strategien müssen stets zwischen Effizienz und Datenqualität abwägen. Eine große Reduktion des Suchraums verspricht zwar eine signifikante Beschleunigung, führt jedoch dazu, dass ähnliche Datensätze, z. B. aufgrund fehlerhafter Attributwerte, nicht miteinander verglichen werden. Aus diesem Grunde ist es hilfreich, für jeden Datensatz mehrere von verschiedenen Attributen abgeleitete semantische Schlüssel zu generieren. Dies führt jedoch dazu, dass ähnliche Datensätze unnötigerweise mehrfach bezüglich verschiedener Schlüssel miteinander verglichen werden. Innerhalb der Arbeit werden deswegen Algorithmen zur Vermeidung solch redundanter Ähnlichkeitsberechnungen präsentiert.
Als Ergebnis dieser Arbeit wird das Entity Resolution-Framework Dedoop präsentiert, welches von den entwickelten MapReduce-Algorithmen abstrahiert und eine High-Level-Spezifikation komplexer Entity Resolution-Workflows ermöglicht. Dedoop fasst alle in dieser Arbeit vorgestellten Techniken und Optimierungen in einem nutzerfreundlichen System zusammen. Der Prototyp überführt nutzerdefinierte Workflows automatisch in eine Menge von MapReduce-Jobs und verwaltet deren parallele Ausführung in MapReduce-Clustern. Durch die vollständige Integration der Cloud-Dienste Amazon EC2 und Amazon S3 in Dedoop sowie dessen Verfügbarmachung ist es für Endnutzer ohne MapReduce-Kenntnisse möglich, komplexe Entity Resolution-Workflows in privaten oder dynamisch erstellten externen MapReduce-Clustern zu berechnen.
|
146 |
Partial closure operators and applications in ordered set theory / Parcijalni operatori zatvaranjai primene u teoriji uređenih skupovaSlivková Anna 06 June 2018 (has links)
<p>In this thesis we generalize the well-known connections between closure operators, closure systems and complete lattices. We introduce a special kind of a partial closure operator, named sharp partial closure operator, and show that each sharp partial closure operator uniquely corresponds to a partial closure system. We further introduce a special kind of a partial clo-sure system, called principal partial closure system, and then prove the representation theorem for ordered sets with respect to the introduced partial closure operators and partial closure systems.<br />Further, motivated by a well-known connection between matroids and geometric lattices, given that the notion of matroids can be naturally generalized to partial matroids (by dening them with respect to a partial closure operator instead of with respect to a closure operator), we dene geometric poset, and show that there is a same kind of connection between partial matroids and geometric posets as there is between matroids and geometric lattices. Furthermore, we then dene semimod-ular poset, and show that it is indeed a generalization of semi-modular lattices, and that there is a same kind of connection between semimodular and geometric posets as there is between<br />semimodular and geometric lattices.</p><p>Finally, we note that the dened notions can be applied to im-plicational systems, that have many applications in real world,particularly in big data analysis.</p> / <p>U ovoj tezi uopštavamo dobro poznate veze između operatora zatvaranja, sistema zatvaranja i potpunih mreža. Uvodimo posebnu vrstu parcijalnog operatora zatvaranja, koji nazivamo oštar parcijalni operator zatvaranja, i pokazujemo da svaki oštar parcijalni operator zatvaranja jedinstveno korespondira parcijalnom sistemu zatvaranja. Dalje uvodimo posebnu vrstu parcijalnog sistema zatvaranja, nazvan glavni parcijalni sistem zatvaranja, a zatim dokazujemo teoremu reprezentacije za posete u odnosu na uvedene parcijalne operatore zatvaranja i parcijalne sisteme zatvaranja. Dalje, s obzirom na dobro poznatu vezu između matroida i geometrijskih mreža, a budući da se pojam matroida može na prirodan nacin uopštiti na parcijalne matroide (definišući ih preko parcijalnih operatora zatvaranja umesto preko operatora zatvaranja), definišemo geometrijske uređene skupove i pokazujemo da su povezani sa parcijalnim matroidima na isti način kao što su povezani i matroidi i geometrijske mreže. Osim toga, definišemo polumodularne uređene skupove i pokazujemo da su oni zaista uopštenje polumodularnih mreža i da ista veza postoji između polumodularnih i geometrijskih poseta kao što imamo između polumodularnih i geometrijskih mreža. Konačno, konstatujemo da definisani pojmovi mogu biti primenjeni na implikacione sisteme, koji imaju veliku primenu u realnom svetu, posebno u analizi velikih podataka.</p>
|
147 |
Experimental Investigations On Near-Threshold Events On Fatigue Crack GrowthYamada, Yoshinori 11 December 2009 (has links)
In the past, the disagreement of near-threshold fatigue-crack growth (FCG) rate data generated from constant Kmax tests, high load ratio (minimum to maximum load) constant R tests, and ΔKeff based data was a mysterious issue. Because of the disagreement, a variety of test or analysis methods were created to correlate FCG rate data. It was suspected that the ASTM threshold test method using load reduction was inducing remote crack closure due to plastically deformed material, which caused elevated thresholds and slower rates than steady-state behavior. The first goal of this study was the development of a test method to eliminate remote closure during threshold testing. In order to avoid/minimize remote closure effect, compression-precracking methods were used to initiate a crack from a starter notch on compact specimens. Two materials with different fatigue crack surface profiles (flat or very rough) were tested and the results generated from the conventional ASTM precracking method and the compression-precracking test method were compared. In order to understand the disagreement of near-threshold data, crack-opening load measurements were performed from locally (near crack tip) installed strain gages instead of the remote gage (i.e., back face gage). Some careful specimen preparations were performed to avoid out-of-plane bending, to maintain straight crack fronts, and to ensure testing system linearity. It was known that remote gages, such as crack-mouth- opening-displacement-gages were insensitive to measuring load-strain records near threshold. By using local gages, the crack closure effects were clearly observed even in high load ratio (R) tests, like or higher than R = 0.7, and constant Kmax tests, which were believed to be crack closure free. By measuring load-reduced-strain records from local gages, crack-opening loads were able to correlate FCG rate data and showed that ΔKeff-rate data was unique for a wide variety of materials. By comparing (ΔKeff)th values, it may provide reasonable guidance for the material resistance against FCG. Because of “high R crack closure”, some theories considered in the past may need to be reconsidered. First, constant Kmax tests are not entirely crack-closure free. Second, there is no critical load ratio, Rc, to indicate the transition from crack-closure affected to crack-closure free data, and Kmax effects that appear in ΔKth-Kmax relations. Research has shown that the three dominate crack-closure mechanisms (plasticity-, roughness- and debris-induced crack closure) FCG rate behavior in the threshold regime from low to high load ratios.
|
148 |
Konsekvenser av skolnedläggningar : En studie av barns och barnfamiljers vardagsliv i samband med skolnedläggningar i Ydre kommunCedering, Magdalena January 2016 (has links)
Many rural village schools have closed over the years, both in Sweden and internationally, because of urbanisation, centralisation and the quest for efficiency. This study shows the impact of two school closures in the rural area of Ydre, south-east Sweden, and describes the reactions of children and families concerned. The aim is to analyse what rural village schools mean for everyday life and how such meaning is based on time-spatial everyday stories. How the children and families view the school closures emerges in the time-geographic perspective, on their own terms, given their opportunity to demonstrate how they use different time-space components. This was studied by interviewing and sketching mental maps with 28 pupils of various ages, and by interviewing and drawing up weekly time schedules with 12 families. This also enabled the analyses to be extended, using the time-geographic conceptual framework, and in particular the interplay between structural changes and individuals’ day-to-day lives, and the interconnections between school and private life, to be clarified. One conclusion is that a school is no mere teaching venue. It is also a key meeting place for children, part of community life and a space for social networking and daily decision-making: a local community hub for the children and their parents alike. When a local school closes and the pupils need to travel further for schooling elsewhere, it affects their travel and activity patterns and social networks. Children’s drawings express their perceptions of place, time and distance. This study shows that the locations where children spend time and have their social networks, as well as how and how often they travel on particular routes, are crucial for their assessment of distance, both temporal and spatial. Describing the value of the closure-threatened school, parents express concern about their local village. They stress the importance of the village school, which they regard as excellent, unique and a resource for the family, but also for the community as a whole. Thereby, they highlight their hope that their community will be attractive to visitors, and also to themselves, the residents. The threats of closure upset them and provoke discussions on how to sustain a living countryside. Studies of children’s and families’ experience of school closures pinpoint the complexity of rural life and show it in a more human-centred, everyday light. Since children are absent from the municipal closure procedure, views of children’s participation are also discussed.
|
149 |
Peer networks and negative health behaviors in young adults : How network characteristics influence the use of cannabis and the frequency of binge drinking in 19-years old young adults in Sweden.Ekström, Fanny January 2014 (has links)
Abstract Background: Networks with closed structures may lead to a scarcity of diversified norms which may leave an individual with only negative norms to be influenced by. Trust, relationship quality and social support are also examples of characteristics which may affect the adoption of health behaviors. Aims: To study whether there are any associations between network closure as well as relationship content (trust, relationship quality, social support) and the use of cannabis as well as the frequency of binge drinking, and how these associations are interacted by other factors. Method: Logistic regression analyses were carried out to calculate the crude and adjusted odds ratios for 19-years old young adults in Sweden (n=2,942). Interaction analyses were also performed. Results: Individuals in high closure networks had a higher tendency to binge drink frequently. Individuals that in general are unhealthy, have many smoking friends and who are males had a higher propensity to both use cannabis and to binge drink when included in high closure networks. Conclusion: Individuals may be affected negatively by being included in networks with closed structures – some more than other − which is possibly mediated by the types of norms that are available.
|
150 |
Full-field modelling of crack tip shielding phenomenaLu, Yanwei January 2011 (has links)
The application of fracture mechanics to engineering design has provided significant advances in understanding of the causes and mechanisms of failure and crack growth. Despite this, there are still some aspects that remain incompletely understood, such as the crack closure/crack shielding effect. The presence of crack closure/shielding acts to reduce . The mechanisms of crack closure/shielding are complicated, and have not been fully understood. This work focuses on the plasticity-induced crack tip shielding mechanism and presents a novel approach to characterise the elastic stress fields under the influence of the plastic enclave surrounding the crack tip. The model is successfully applied to determine the four stress parameters experimentally using full-field photoelastic stress analysis on polycarbonate CT specimens, following studies of the effect of the crack tip position and the valid data collection zone giving the best fit between the model predictions and the experimental data. The predicted values from the model demonstrate good data repeatability, and exhibit sensible trends as a function of crack length and load ratio that are interpretable in terms of physically meaningful changes to the plastic enclave. In addition, the model is proven to describe the stress field around a crack more accurately than classic Williams‟ stress solution. The model is also extended to AL 2024-T3 specimens using a full-field displacement measurement technique, digital image correlation. Using the Sobel edge detection method to identify the crack tip from the displacement fields with a rectangular shaped data collection zone employed in the current study, reasonable trends were again demonstrated in the experimental results as a function of crack length.
|
Page generated in 0.074 seconds