Spelling suggestions: "subject:"[een] QUANTIFICATION"" "subject:"[enn] QUANTIFICATION""
221 |
Uncertainty quantification and calibration of a photovoltaic plant model : warranty of performance and robust estimation of the long-term production. / Quantification des incertitudes et calage d'un modèle de centrale photovoltaïque : garantie de performance et estimation robuste de la production long-termeCarmassi, Mathieu 21 December 2018 (has links)
Les difficultés de mise en œuvre d'expériences de terrain ou de laboratoire, ainsi que les coûts associés, conduisent les sociétés industrielles à se tourner vers des codes numériques de calcul. Ces codes, censés être représentatifs des phénomènes physiques en jeu, entraînent néanmoins tout un cortège de problèmes. Le premier de ces problèmes provient de la volonté de prédire la réalité à partir d'un modèle informatique. En effet, le code doit être représentatif du phénomène et, par conséquent, être capable de simuler des données proches de la réalité. Or, malgré le constant développement du réalisme de ces codes, des erreurs de prédiction subsistent. Elles sont de deux natures différentes. La première provient de la différence entre le phénomène physique et les valeurs relevées expérimentalement. La deuxième concerne l'écart entre le code développé et le phénomène physique. Pour diminuer cet écart, souvent qualifié de biais ou d'erreur de modèle, les développeurs complexifient en général les codes, les rendant très chronophages dans certains cas. De plus, le code dépend de paramètres à fixer par l'utilisateur qui doivent être choisis pour correspondre au mieux aux données de terrain. L'estimation de ces paramètres propres au code s'appelle le calage. Cette thèse propose dans un premier temps une revue des méthodes statistiques nécessaires à la compréhension du calage Bayésien. Ensuite, une revue des principales méthodes de calage est présentée accompagnée d'un exemple comparatif basé sur un code de calcul servant à prédire la puissance d'une centrale photovoltaïque. Le package appelé CaliCo qui permet de réaliser un calage rapide de beaucoup de codes numériques est alors présenté. Enfin, un cas d'étude réel d'une grande centrale photovoltaïque sera introduit et le calage réalisé pour effectuer un suivi de performance de la centrale. Ce cas de code industriel particulier introduit des spécificités de calage numériques qui seront abordées et deux modèles statistiques y seront exposés. / Field experiments are often difficult and expensive to make. To bypass these issues, industrial companies have developed computational codes. These codes intend to be representative of the physical system, but come with a certain amount of problems. The code intends to be as close as possible to the physical system. It turns out that, despite continuous code development, the difference between the code outputs and experiments can remain significant. Two kinds of uncertainties are observed. The first one comes from the difference between the physical phenomenon and the values recorded experimentally. The second concerns the gap between the code and the physical system. To reduce this difference, often named model bias, discrepancy, or model error, computer codes are generally complexified in order to make them more realistic. These improvements lead to time consuming codes. Moreover, a code often depends on parameters to be set by the user to make the code as close as possible to field data. This estimation task is called calibration. This thesis first proposes a review of the statistical methods necessary to understand Bayesian calibration. Then, a review of the main calibration methods is presented with a comparative example based on a numerical code used to predict the power of a photovoltaic plant. The package called CaliCo which allows to quickly perform a Bayesian calibration on a lot of numerical codes is then presented. Finally, a real case study of a large photovoltaic power plant will be introduced and the calibration carried out as part of a performance monitoring framework. This particular case of industrial code introduces numerical calibration specificities that will be discussed with two statistical models.
|
222 |
Extraction et Modélisation de la cinétique du traceur en imagerie TEP pour la caractérisation des tissus tumoraux / Extraction and Modeling of the kinetics of the tracer in PET imaging for the characterization of tumor tissuesKetata, Ines 06 December 2013 (has links)
Les travaux de recherche de cette thèse s'inscrivent dans le cadre de la caractérisation du cancer du sein dans le but de réaliser une nouvelle approche pour l'extraction et la modélisation de la cinétique du traceur en imagerie TEP. La mesure du taux de comptage d'un traceur dans une région d'intérêt (ROI) estimée au moyen d'une extension d'une Carte de Dissimilarité Locale à Valeurs Réelles (CDLVR) proposée en niveaux de gris et l'utilisation des modèles dynamiques comme la méthode d'Analyse Factorielle des Séquences d'Images Médicales (AFSIM) appliquée sur la ROI permettent la quantification automatique et précoce du métabolisme glucidique. Plus spécifiquement, il s'agit de déterminer un nouveau paramètre empirique KFPQ. Il est calculé à partir des deux compartiments obtenus dans la région d'intérêt tumorale et tel que évalué durant le premier passage du traceur 18F-FDG dans les images TEP précoces. / The research of this thesis proposes in the context of the breast cancer characterization in order to achieve a new approach for the extraction and modeling of the tracer kinetics in PET imaging.The measurement of the counting rate of a tracer in a region of interest (ROI) estimated using an extension of a Real Valued Local Dissimilarity Map (RVLDM) proposed grayscale and the use of dynamic models as the method of factor analysis of medical image sequences (FAMIS) applied on the ROI enable an automatic early quantification of glucose metabolism. More specifically, it is to determine a new KFPQ empirical parameter. It is calculated from the two compartments obtained in the region of interest and tumor as assessed during the first pass of the 18F-FDG tracer in the early PET images.
|
223 |
Développement et validation de méthodes de dosage du midazolam, un marqueur de l'activité des CYP3A, et de la fexofénadine, un substrat de la glycoprotéine P, dans les milieux biologiquesStepanova, Tatiana January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
224 |
La spectrométrie de masse appliquée à la quantification des protéines médicaments dans le plasmaXuereb, Fabien 01 December 2008 (has links)
Le nombre croissant de médicaments protéiques utilisés en thérapeutique a créé des besoins dans le domaine de leur quantification, principalement dans le plasma, un milieu de composition protéique complexe. Le dosage, essentiel aux études pharmacocinétique/pharmacodynamique, ainsi qu’à l’optimisation de ces traitements, est compliqué par la nature protéique de ces médicaments et par les faibles concentrations auxquelles ils sont attendus dans ces milieux complexes. La méthodologie proposée se démarque des méthodes de dosage usuelles par son caractère universel. Elle fait appel à la spectrométrie de masse adaptée à la quantification des protéines grâce à l’utilisation d’un marquage isotopique différentiel des peptides : après enrichissement et protéolyse, l’échantillon à doser est marqué sur les lysines par la version légère d’un réactif de dérivation. En parallèle, les peptides de la protéine médicament pure marqués par la version lourde du réactif, servent d’étalon interne. La possibilité de quantifier la protéine à partir de plusieurs de ses peptides améliore la fiabilité du dosage. Appliquée à l’epoetin beta aux concentrations attendues en thérapeutique (autour de 0,5 femtomole/µL de plasma), la stratégie proposée permet de situer la limite de quantification à environ 50 attomoles d’epoetin beta/µL de plasma avec une méthodologie de spectrométrie de masse nano-LC-ESI-Q-TRAP fonctionnant en mode MRM. Pour étendre l’universalité de cette approche au champ des protéines médicaments pégylées, une seconde molécule a été étudiée. Il s’agit de l’interféron alfa-2b pégylé qui a permis de mettre en place une stratégie d’extraction spécifique du médicament utilisant sa pégylation. / The growing number of therapeutic proteins has created needs in the field of their quantification, mainly in plasma, which is a complex protein environment. Quantitative analysis of these proteins is essential for pharmacokinetics/pharmacodynamics studies, and for the optimization of treatments. However, the nature itself of the analyte and the low concentrations that are expected in plasma complicate the quantitative analysis. The proposed methodology differs from usual methods on its universal applicability. It relies on mass spectrometry adapted to the quantification of proteins by using peptides differential isotope labelling : after enrichment and proteolysis, the therapeutic protein and the plasmatic proteins are labelled on lysine residues by the light reagent. In parallel, peptides of the pure therapeutic protein, labelled by heavy version of reagent, are used as internal standard. The ability to quantify the protein with several of its peptides improves the reliability of the analysis. When applied to epoetin beta at expected therapeutic concentrations (about 0.5 femtomole/µL of plasma), the proposed strategy leads to a quantification limit close to 50 attomoles of epoetin beta/µL plasma, with a nano-LC-ESI-Q-TRAP mass spectrometry methodology operating in MRM. To extend the universal character of this approach to the field of pegylated protein drugs, a second therapeutic protein model has been studied. This model is a pegylated interferon alfa-2b which allowed developing a strategy for specific extraction of the drug relying on its pegylation.
|
225 |
Quantification du processus d'agrégation dans les Technosols / Quantifying the process of aggrégation in TechnosolsJangorzo, Salifou Nouhou 12 February 2013 (has links)
Les Technosols forment une nouvelle classe de sols, caractérisée par une forte influence anthropique dont le fonctionnement est peu étudié. L'agrégat étant l'intégrateur de l'histoire du sol et révélateur de son fonctionnement actuel, l'étude du processus d'agrégation est de ce fait une entrée pertinente pour comprendre le fonctionnement des Technosols et les stades vers lesquels ils peuvent évoluer. A partir d'échantillons de sol prélevés sur une parcelle d'un hectare, un protocole non destructif de quantification directe de la porosité et de l'agrégation par analyse d'images a été mis en place. Les résultats montrent qu'au bout de deux ans, le Technosol construit se compacte avec une réduction de la surface de des pores de diamètre > 25 µm et une augmentation des pores < 25 µm. Malgré cette compaction, l'agrégation augmente avec le temps. Pour suivre la dynamique de la porosité et d'agrégation de ce Technosol en fonction de facteurs choisis de pédogenèse, un dispositif de visualisation in situ a été conçu. Les résultats d'analyse d'images ont montré que dans les stades précoces d'évolution des sols, la porosité et l'agrégation augmentent significativement. Ensuite, elles baissent significativement dans la modalité « humectation-dessiccation» tout en continuant d'augmenter dans les modalités « plante » et « faune + plante ». Cette augmentation est proportionnelle à l'âge des racines et à l'intensité de l'action des vers de terre. Le « Technosol construit » est alors un modèle expérimental dont la constitution organominérale et le fonctionnement sont très largement contrôlés, en comparaison de sols « naturels » évolués dont le point initial de développement est quasi systématiquement inconnu / Technosols form a new class of soils, which is characterized by a strong anthropogenic influence of which functioning is less studied. Aggregates can be considered as an integrator of soil history and an indicator of soil bio functioning, therefore studying the process of aggregation is a relevant way to understand how technosols operate and states towards which they will evolve. Through samples collected on a hone hectare plot, a protocol of none destructive direct quantification of aggregates and porosity by thin sections images analysis has been performed. Results showed that this Technosol is compacting with a decrease of pores with an equivalent diameter >2000 µm and an increase of those <25µm. Despite this compaction, the aggregation increases with time. To study the dynamics of porosity and aggregation of this constructed Technosol as function of pedogenetic factors, a dispositive of in situ soil visualization has been developed. Results of images analysis showed that, during the early stage of soil evolution, porosity and aggregation increase significantly in all modalities. Then, they significantly decrease in ?wetting drying cycle? modality but continued increasing in ?plant? and ?plant-earthworm? modalities. This increase is proportional to the age of plants roots and intensity of earthworm?s activity. The ?constructed Technosol? is therefore an experimental soil model whose organomineral contents and function are well controlled compared to so-called ?natural soils?. In these evolved natural soils, the starting point is quite systematically unknown
|
226 |
De la grammaire à la rhétorique : analogie et ressemblance dans les structures comparatives / From Grammar to Rhetoric : Resemblance, Analogy in Comparative StructuresGharbi, Habib 25 June 2013 (has links)
La comparaison a toujours été mal cernée aussi bien du côté de la grammaire que de celui de la rhétorique. Pour cette raison, elle ne trouve pas de place bien précise dans les ouvrages de linguistique ou sinon des analyses hétérogènes succinctes et incomplètes. Cette thèse se propose donc d’uniformiser l’étude de la comparaison en en balayant toutes les formes possibles. Par ailleurs, nous tentons de réhabiliter la distinction relative à la tradition gréco-latine entre la comparatio et la similitudo, qui s’est perdue depuis le XVIIe siècle, période où s’est installée la confusion. A partir d’une méthodologie constructiviste qui va des unités minimales vers le texte, cette étude parcourt tous les niveaux de l’analyse linguistique en partant du niveau grammatical tenu comme niveau de référence jusqu’au niveau rhétorique où sont pris en compte les référents extralinguistiques. Elle aboutit ainsi à des distinctions catégoriques entre comparaison et similitude d’une part et entre celle-ci et la métaphore de l’autre. Ces distinctions sont illustrées par des exemples puisés principalement dans la langue littéraire moderne (XIXe et XXe siècles), lesquels sont accompagnés d’analyses détaillées et de classements mettant en évidence la spécificité de chacune de ces notions qui s’inscrivent dans l’étude de l’analogie et la ressemblance. / Comparison has always been poorly understood whether in grammar or rhetoric. This is why none of the linguistic works or the brief heterogeneous analysis that were made have managed to deal with it in the precise manner they were ought to. Hence comes the objective of my thesis which consists in standardizing the study of Comparison by taking in consideration all of its possible forms. Indeed, I will try to rehabilitate the distinction of the Greco-Roman tradition between Comparatio and Similitudo which was lost since the period of confusion that marked the XVIIth century. Based on a constructive methodology that starts with the smallest units to reach out for the larger text, this study goes through all levels of linguistic analysis, beginning with the grammatical layer, a referential one, to attain the rhetorical layer where extra-linguistic referents are taken into account. It consequently leads to achieve the categorical distinctions between comparison and similitude one the one hand, and between comparison and metaphor on the other. Those distinctions are illustrated by examples drawn basically in modern literature (XIXth and XXth centuries). Interestingly, examples themselves are accompanied with detailed analysis and sundry rankings which are meant to highlight the specificities of every notion in relation to the study of analogy and resemblance.
|
227 |
Segmentation d'images TEP dynamiques par classification spectrale automatique et déterministe / Automatic and deterministic spectral clustering for segmentation of dynamic PET imagesZbib, Hiba 09 December 2013 (has links)
La quantification d’images TEP dynamiques est un outil performant pour l’étude in vivo de la fonctionnalité des tissus. Cependant, cette quantification nécessite une définition des régions d’intérêts pour l’extraction des courbes temps-activité. Ces régions sont généralement identifiées manuellement par un opérateur expert, ce qui renforce leur subjectivité. En conséquent, un intérêt croissant a été porté sur le développement de méthodes de classification. Ces méthodes visent à séparer l’image TEP en des régions fonctionnelles en se basant sur les profils temporels des voxels. Dans cette thèse, une méthode de classification spectrale des profils temporels des voxels est développée. Elle est caractérisée par son pouvoir de séparer des classes non linéaires. La méthode est ensuite étendue afin de la rendre utilisable en routine clinique. Premièrement une procédure de recherche globale est utilisée pour localiser d’une façon déterministe les centres optimaux des données projetées. Deuxièmement, un critère non supervisé de qualité de segmentation est proposé puis optimisé par le recuit simulé pour estimer automatiquement le paramètre d’échelle et les poids temporels associés à la méthode. La méthode de classification spectrale automatique et déterministe proposée est validée sur des images simulées et réelles et comparée à deux autres méthodes de segmentation de la littérature. Elle a présenté une amélioration de la définition des régions et elle paraît un outil prometteur pouvant être appliqué avant toute tâche de quantification ou d’estimation de la fonction d’entrée artérielle. / Quantification of dynamic PET images is a powerful tool for the in vivo study of the functionality of tissues. However, this quantification requires the definition of regions of interest for extracting the time activity curves. These regions are usually identified manually by an expert operator, which reinforces their subjectivity. As a result, there is a growing interest in the development of clustering methods that aim to separate the dynamic PET sequence into functional regions based on the temporal profiles of voxels. In this thesis, a spectral clustering method of the temporal profiles of voxels that has the advantage of handling nonlinear clusters is developed. The method is extended to make it more suited for clinical applications. First, a global search procedure is used to locate in a deterministic way the optimal cluster centroids from the projected data. Second an unsupervised clustering criterion is proposed and optimised by the simulated annealing to automatically estimate the scale parameter and the weighting factors involved in the method. The proposed automatic and deterministic spectral clustering method is validated on simulated and real images and compared to two other segmentation methods from the literature. It improves the ROI definition, and appears as a promising pre-processing tool before ROI-based quantification and input function estimation tasks.
|
228 |
Représentation de signaux robuste aux bruits - Application à la détection et l'identification des signaux d'alarme / Signals representation robust to noise - Application to the detection and identification of alarm signalsEl jili, Fatimetou 17 December 2018 (has links)
Ces travaux ont pour application la détection l'identification des signaux audio et particulièrement les signaux d'alarmes de voitures prioritaires. Dans un premier temps, nous proposons une méthode de détection des signaux d'alarme dans un environnement bruité, fondée sur des techniques d'analyse temps-fréquence des signaux. Cette méthode permet de détecter et d'identifier des signaux d'alarmes noyés dans du bruit, y compris pour des rapports signal à bruit négatifs. Puis nous proposons une quantification des signaux robuste aux bruits de transmission. Il s'agit de remplacer chaque niveau de bit d'un vecteur d'échantillons temporels ou fréquentiels par un mot binaire de même longueur fourni par un codeur correcteur d'erreur. Dans une première approche, chaque niveau de bits est quantifié indépendamment des autres selon le critère de minimisation de la distance de Hamming. Dans une seconde approche, pour réduire l'erreur de quantification à robustesse égale, les différents niveaux de bits sont quantifiés successivement selon un algorithme de type matching pursuit. Cette quantification donne aux signaux une forme spécifique permettant par la suite de les reconnaitre facilement parmi d'autres signaux. Nous proposons donc enfin deux méthodes de détection et d'identification des signaux fondées sur la quantification robuste, opérant dans le domaine temporel ou dans le domaine fréquentiel, par minimisation de la distance entre les signaux reçus restreints à leurs bits de poids fort et les signaux de référence. Ces méthodes permettent de détecter et d'identifier les signaux dans des environnements à rapport signal à bruit très faible et ceci grâce à la quantification. Par ailleurs, la première méthode, fondée sur la signature temps-fréquence, s'avère plus performante avec les signaux quantifiés. / This work targets the detection and identification of audio signals and in particular alarm signals from priority cars. First, we propose a method for detecting alarm signals in a noisy environment, based on time-frequency signal analysis. This method makes it possible to detect and identify alarm signals embedded in noise, even with negative signal-to-noise ratios. Then we propose a signal quantization robust against transmission noise. This involves replacing each bit level of a vector of time or frequency samples with a binary word of the same length provided by an error- correcting encoder. In a first approach, each bit level is quantized independently of the others according to the Hamming distance minimization criterion. In a second approach, to reduce the quantization error at equal robustness, the different bit levels are quantized successively by a matching pursuit algorithm. This quantization gives the signals a specific shape that allows them to be easily recognized among other signals. Finally, we propose two methods for detecting and identifying signals based on robust quantization, operating in the time domain or in the frequency domain, by minimizing the distance between the received signals restricted to their high-weight bits and the reference signals. These methods make it possible to detect and identify signals in environments with very low signal-to-noise ratios, thanks to quantization. In addition, the first method, based on the time-frequency signature, is more efficient with quantized signals.
|
229 |
Analyses structurale et quantitative de composés iso-mères/bares en mélange par spectrométrie de masse tandem et multi-étapes / Structural and quantitative analysis of iso-meric/baric compounds in mixture using tandem and multistage mass spectrometryJeanne dit Fouque, Dany 19 December 2018 (has links)
Ces travaux de thèse sont consacrés au développement de nouvelles méthodologies pour l’analyse structurale et quantitative de composés isomères ou isobares en mélange par spectrométrie de masse en tandem (MS/MS) ainsi que par la technique des ions survivants (SY). À l’aide de cette technique, nous avons développé une méthode de « purification collisionnelle en phase gaz » consistant à purifier un composé par fragmentation sélective du contaminant isomère ou isobare afin de permettre l’analyse structurale et quantitative du composé d’intérêt. Nous avons montré que cette approche peut être utilisée avec succès à la fois lors de l’étape d’excitation collisionnelle (CID) d’une expérience MS/MS, mais également lors du processus d’ionisation (in-source CID). Utilisant cette approche MS/MS sur une fenêtre de 15 m/z, nous avons ainsi pu quantifier, par la méthode de l’étalon interne, un peptide trypsique malgré la présence d’un contaminant isobare. L’optimisation des performances de quantification pour la technique SY a ensuite été étudiée sur des peptides isomères topologiques en mélange et comparée à l’analyse par microscopie infrarouge. Parmi les alcalins, alcalino-terreux et métaux de transition testés, nous avons obtenu les meilleurs résultats avec les adduits au césium. Des résultats comparables à la technique infrarouge ont confirmé la pertinence de notre approche avec de surcroît de meilleures performances analytiques, en particulier en terme de rapidité d’exécution, de sensibilité, d’erreur de prédiction et de limite de quantification. / This PhD work focused to the development of new methodologies for the structural and quantitative analysis of isomers or isobars compounds in mixture using tandem mass spectrometry (MS/MS) and the Survival Yield technique (SY).Using this technique, we have developed a method of « gas phase collisional purification » of purifying a compound by selective fragmentation of the isomeric or isobaric contaminant to allow the structural and quantitative analysis of the compound of interest. We have shown that this approach can be used successfully both during the collisional excitation step (CID) of a MS/MS experiment, but also during the ionization process (in-source CID). Using this MS/MS approach on an isolation window of 15 m/z, we were able to quantify, by the internal standard method, a tryptic peptide despite the presence of an isobaric contaminant.Optimization of quantification performances for the SY technique was then studied on topological isomeric peptides in mixture and compared with infrared microscopy analysis. Among the alkali, alkaline earth and transition metals tested, we obtained the best results with cesium adducts.Results comparable to the infrared technique confirmed the relevance of our approach with, moreover, better analytical performances, in particular in terms of speed of execution, sensitivity, prediction error and limit of quantification.
|
230 |
La pratique celtique des "têtes coupées" en France méditerranéenne : l’exemple du site du Cailar (Gard) au IIIe s. av. n. è. Approche archéothanatologique et traitements informatiques des données / Celtic severed head practice in southern France : The exemple of the Cailar’s settlement (Gard, France) during the IIIrd century BCE. Death archaeology approachand IT processingCiesielski, Elsa 20 December 2017 (has links)
En Gaule méridionale la pratique des têtes coupées, décrite par la littérature antique, est attestée par les vestiges lapidaires et les restes humains mis au jour depuis plus d’un siècle. Des données inédites sur cette coutume ont été acquises suite à la découverte au Cailar (Gard, France), à partir de 2003, d’un ensemble de crânes humains fragmentés, d’armement manipulé et de plusieurs dizaines de monnaies, dispersés dans les phases de remblaiement d’une place publique entre la fin du IVe et la fin du IIIe s av. n. è. Cette dernière appartient à une agglomération fortifiée fondée dès le VIe s. av. n. è. Les fragments de crânes trouvés sur ce site constituent le sujet de cette étude. Ces os forment un corpus assez différent des restes généralement associés aux têtes coupées : ils sont nombreux, très fragmentés et largement mélangés et dispersés dans les couches. Pour comprendre les évènements qui ont conduit à la création d’un tel assemblage, il a été nécessaire de mettre en place des outils adaptés à leur étude. Après une remise en contexte archéologique régionale et locale, ce travail se propose de présenter les méthodes de l’archéothanatologie adaptées à l’étude de ce type d’ossements (quantification, modification osseuses). Dans un deuxième temps, sont détaillés l’outil d’enregistrement créé pour optimiser l’étude (base de données/géodatabase, SIG), et les méthodes d’analyses spatiales retenues pour étudier non seulement les traces et les fractures des pièces osseuses, mais aussi leur répartition sur le terrain. Les résultats obtenus sont multiples : données quantitatives et taphonomiques précises sur l’assemblage, proposition d’une méthode inédite pour l’analyse de la découpe et de la fragmentation sur des crânes humains fragmentés, analyse poussée de la répartition spatiale dans les trois dimensions. Tous ces éléments permettent de proposer des hypothèses solides quant à la chaîne opératoire qui concerne les têtes coupées : mode de récupération, traitement, rejet, mise en place du dépôt. Ce travail permet également de suggérer des pistes à approfondir ou à abandonner dans les méthodes usuelles d’analyses des grands ensembles fragmentés et dispersés. / Once only known from Classical accounts, the practice of collecting and curating human heads by certain Iron Age groups in southern France has, for more than a century now, been evinced by materials including stone carvings and human remains. In particular, new evidence has been brought to light at the site of Le Cailar (Gard), a fortified site occupied from the end of the 6th century BCE. Specially, excavations carried out since 2003 have revealed an extensive deposit accumulated from the end of the 4th until the end of the 3rd century BCE, comprising fragmented human crania, purposefully deformed armaments, and many dozens of coins scattered across a public plaza, beneath a thick layer of rubble. The human cranial fragments discovered on this plaza are the subject of this study. These bones form a corpus quite different from the remains generally associated with severed heads: they are numerous, very fragmented, and largely mixed and dispersed in the levels. In order to understand the events that led to the creation of the assemblage, it has been necessary to adapt tools to this study. After putting the site into its local and regional context, this work proposes to present bioarchaeological methods adapted to the study of these types of bone (especially, quantification and modification of the bone). In a second time, the recording tool created to optimize the study is presented (database / geodatabase, GIS), then the spatial analysis methods used to study, not only the traces and the fractures of the parts bones, but also their distribution on the field. There are a lot of results: precise quantitative and taphonomic data about the assemblage, proposition of new method to study cut marks and fracturing, a hitherto unparalleled understanding of the process of how crania were distributed across the site (this last measured in three dimensions). All these elements permit to propose solid hypotheses regarding the process by which these heads were produced: the means of recuperation, treatment, disposal, and deposition. This work also suggests which avenues of research will or won't be useful to pursue in future projects of a similar nature.
|
Page generated in 0.0646 seconds