141 |
Les nécropoles phéniciennes de Méditerranée occidentale : architectures et pratiques funéraires / The phoenician necropolises of the Western Mediterranea : architectures and funeral practicesDe Jonghe, Marie 25 November 2017 (has links)
C'est la fragmentation des données sur les nécropoles phéniciennes qui a motivé la réalisation d'une étude générale permettant d'établir des schémas récurrents dans la manière dont les Phéniciens voient et se préoccupent de leurs morts. Ce travail a pour titre : «Les nécropoles phéniciennes de Méditerranée occidentale. Architectures et pratiques funéraires», et prend place dans le cadre géographique suivant : la Péninsule ibérique, le Maroc, l'Algérie, la Tunisie, la Libye, la Sardaigne, l'île de Malte et enfin la Sicile, et ce sur la totalité de la période phénicienne en Méditerranée occidentale (VIIIe-Ve siècle avant notre ère). La synthèse des fouilles anciennes et l'apport considérable des études récentes sur le sujet permettent aujourd'hui d'envisager une étude comparative plus poussée des nécropoles phéniciennes de Méditerranée occidentale. Si les caractéristiques sont clairement identifiées, il n'en demeure pas moins qu'elles présentent de grandes variabilités. Ainsi, d'une région à l'autre, les caractéristiques changent et les typologies se rallongent, tant du point de vue de l'architecture que des rites et du mobilier funéraire. Mais quelle relation existe-t-il entre l'architecture, le choix du rite et le mobilier funéraire? Comment expliquer une telle variabilité et quels aspects revêt-elle? Est-il possible d'identifier des schémas plus ou moins récurrents qui pourraient nous amener à une meilleure compréhension de la norme funéraire pour les phéniciens de Méditerranée occidentale, et comment elle se caractérise. Pour traiter cet ensemble de question, la réalisation d'un catalogue de données permet non seulement une centralisation, un meilleur accès aux données brutes et donc une meilleure utilisation de celles-ci. Mais cela nous permet également de rendre compte du nombre de tombes pour lesquelles nous disposons d'informations sur les sites ayant été fouillés anciennement et dont la documentation est lacunaire. / It is the fragmentation of the data on the phoenician necropolises that motivated the realization of a general study to establish recurring plans in the way the Phoenician see and worry about their deads. This work has for title "the phoenician necropolises of the western Mediterranea. Architectures and funeral practices", and takes a seat in the following geographical frame: lberian Peninsula, Morocco, Algeria, Tunisia, Libya, Sardinia, island of Malta and finally Sicily, and it on all of the phoenician period in the western Mediterranean Sea (8-Sth century BC).The synthesis of the former searches and the considerable contribution of the recent studies on the subject allow us to considerate a more elaborate comparative study of the phoenician necropolises of the western Mediterranea. If the characteristics are clearly identified, the fact remains that they present big variabilities. So, from a region to the other one, the characteristics change and the typologies get bigger, both from the point of view of the architecture and the rites and of the funeral furniture. But what relation exists between the architecture, the choice of the rite and the funeral deposit? How to explain such a variability and what aspects does it does take on? It is possible to identify more or less recurring plans which could bring us to a better understanding of the funeral standard for the phoenician of the western Mediterranea, and how it is characterized. To treat this whole question, the realization of a catalog of data allows not only a centralization, a better access to the raw data and thus a better use of these. But it also allows us to report the number of graves for which we have infom1ation on sites having formerly been searched and whose documentation is incomplete.
|
142 |
Analyse et détection de logiciels de rançon / Analysis and detection of the ransomwarePalisse, Aurélien 04 March 2019 (has links)
La thèse s'intéresse aux logiciels de rançon, présente une plateforme d'analyse automatique et propose des contre-mesures. Nos contre-mesures sont conçues pour être temps réel et déployées sur une machine, c'est-à-dire ''End-Hosts''. En 2013 les logiciels de rançon font de nouveau parler d'eux, pour finalement devenir une des menaces les plus sérieuses à partir de 2015. Un état de l'art détaillé des contre-mesures existantes est fourni. On peut ainsi situer les contributions de cette thèse par rapport à la littérature. Nous présentons également une plateforme d'analyse automatique de logiciels malveillants composée de machines nues. L'objectif est de ne pas altérer le comportement des échantillons analysés. Une première contre-mesure basée sur l'utilisation d'une librairie cryptographique par les logiciels de rançon est proposée. Celle-ci peut être facilement contournée. Nous proposons donc une seconde contre-mesure générique et agnostique. Cette fois, des indicateurs de compromission sont utilisés pour analyser le comportement des processus sur le système de fichiers. Nous détaillons comment de manière empirique nous avons paramétré cette contre-mesure pour la rendre~: utilisable et efficace. Un des challenges de cette thèse étant de faire concilier performance, taux de détection et un faible taux de faux positifs. Enfin, les résultats d'une expérience utilisateur sont présentés. Cette expérience analyse le comportement des utilisateurs face à une menace. En dernière partie, nous proposons des améliorations à nos contributions mais aussi des pistes à explorer. / This phD thesis takes a look at ransomware, presents an autonomous malware analysis platform and proposes countermeasures against these types of attacks. Our countermeasures are real-time and are deployed on a machine (i.e., end-hosts). In 2013, the ransomware become a hot subject of discussion again, before becoming one of the biggest cyberthreats beginning of 2015. A detailed state of the art for existing countermeasures is included in this thesis. This state of the art will help evaluate the contribution of this thesis in regards to the existing current publications. We will also present an autonomous malware analysis platform composed of bare-metal machines. Our aim is to avoid altering the behaviour of analysed samples. A first countermeasure based on the use of a cryptographic library is proposed, however it can easily be bypassed. It is why we propose a second generic and agnostic countermeasure. This time, compromission indicators are used to analyse the behaviour of process on the file system. We explain how we configured this countermeasure in an empiric way to make it useable and effective. One of the challenge of this thesis is to collate performance, detection rate and a small amount of false positive. To finish, results from a user experience are presented. This experience analyses the user's behaviour when faced with a threat. In the final part, I propose ways to enhance our contributions but also other avenues that could be explored.
|
143 |
Étude quantitative de la tomographie optique diffuse de luminescence : Application à la localisation de sources en imagerie moléculaire / Quantitative study of luminescence diffuse optical tomography : Application to source localisation in molecular imagingBoffety, Matthieu 23 February 2010 (has links)
L’imagerie moléculaire occupe une place majeure dans le domaine de la recherche préclinique. Parmi les modalités existantes, les techniques optiques fondées sur la détection d’un rayonnement visible ou proche infrarouge sont les plus récentes et sont principalement représentées par les méthodes de tomographie optique de luminescence. Ces méthodes permettent une caractérisation 3D d’un milieu biologique par la reconstruction de cartes de concentration ou la localisation de marqueurs luminescents sensibles à des processus biologiques et chimiques se déroulant à l’échelle de la cellule ou de la molécule. La tomographie de luminescence se fonde sur un modèle de propagation de la lumière dans les tissus, un protocole d’acquisition du signal en surface du milieu et une procédure numérique d’inversion de ces mesures afin de reconstruire les paramètres d’intérêts. Ce travail de thèse s’articule donc autour de ces trois axes et apporte un élément de réponse à chacun des problèmes. L’objectif principal de cette étude est d’introduire et de présenter des outils d’évaluation des performances théoriques d’une méthode de tomographie optique. L’un des aboutissements majeurs est la réalisation de reconstructions tomographiques expérimentales à partir d’images acquises par un imageur optique conçu pour l’imagerie planaire 2D et développé par la société Quidd. Dans un premier temps nous abordons la théorie du transport en milieu diffusant afin de poser les concepts et outils sur lesquels vont s’appuyer l’ensemble des travaux. Nous présentons particulièrement deux modèles de propagation différents ainsi que les méthodes de résolution et les difficultés théoriques qui leur sont liées. Dans une deuxième partie nous introduisons les outils statistiques utilisés pour caractériser les systèmes tomographiques et leur résolution potentielle. Nous définissons une procédure et nous l’appliquons à l’étude de quelques situations simples en tomographie de luminescence. La dernière partie de ce travail présente la mise au point d’une procédure d’inversion. Après avoir présenté le cadre théorique dans lequel cette procédure s’inscrit nous la validons à partir de données numériques avant de l’appliquer avec succès à des mesures expérimentales. / Molecular imaging is a major modality in the field of preclinical research. Among the existing methods, techniques based on optical detection of visible or near infrared radiation are the most recent and are mainly represented by luminescence optical tomography techniques. These methods allow for 3D characterization of a biological medium by reconstructing maps of concentration or localisation of luminescent beacons sensitive to biological and chemical processes at the molecular or cellular scale. Luminescence optical tomography is based on a model of light propagation in tissues, a protocol for acquiring surface signal and a numerical inversion procedure used to reconstruct the parameters of interest. This thesis is structured around these three axes and provides an answer to each problem. The main objective of this study is to introduce and present the tools to evaluate the theoretical performances of optical tomography methods. One of its major outcomes is the realisation of experimental tomographic reconstructions from images acquired by an optical imager designed for 2D planar imaging and developed by the company Quidd. In a first step we develop the theory of transport in scattering medium to establish the concept on which our work will rely. We present two different propagation models as well as resolution methods and theoretical difficulties associated with them. In a second part we introduce the statistical tools used to characterise tomographic systems. We define and apply a procedure to simple situations in luminescence optical tomography. The last part of this work presents the development of an inversion procedure. After introducing the theoretical frameworkwe validate the procedure fromnumerical data before successfully applying it to experimentalmeasurements.
|
144 |
Contribution à l'Actualisation des Normes Hydrologiques en relation avec les Changements Climatiques et Environnementaux en Afrique de l'Ouest / A contribution to the update of hydrological standards in West Africa : impacts of climate and Environmental changes on hydrologic extremesNka Nnomo, Bernadette 18 January 2016 (has links)
La mobilisation et la gestion de l’eau de surface constitue la clé de voûte du bien-être social et économique des populations des zones arides d’Afrique de l’Ouest. Cependant l’utilisation des outils de gestion et de prédétermination hydrologique est entravée par les changements climatiques et environnementaux que connait l’Afrique de l’Ouest depuis les années 1970. Les impacts de ces changements sont assez bien documentés sur les caractéristiques moyennes des régimes hydrologiques mais le sont moins lorsqu’on s’intéresse aux caractéristiques des extrêmes. Cette thèse s’inscrit dans le cadre d’une contribution à un projet d’actualisation des normes hydrologiques en Afrique de l’Ouest, et constitue le premier pas essentiel pour ce projet. Son objectif général est de caractériser les régimes de crues dans la région en répondant aux questions suivantes : Quelles sont les évolutions observées sur les régimes des crues en Afrique de l’Ouest ? Ces évolutions sont-elles en rapport avec les changements climatiques et/ou les modifications environnementales ? Quels sont les scénarii possibles de l’évolution des crues au regard des simulations climatiques futures ? La difficulté majeure de ce travail est liée à la disponibilité des données hydro climatiques et environnementales dans la région, aussi, l’analyse s’est basée sur des outils reconnus robustes dans la littérature. Dans un premier temps, l’utilisation des données de 14 stations hydrométriques de la région... / Water resources plays a key role in the social progress and economic development of west african countries. But the mobilization of water is hampered by climate and environmental changes that undergoes the region since 1970. Extremes parts of hydrological regimes are also impacted, but less studies have focus on their evolution, in relation with climate and environmental changes. The main objective of this thesis is to characterize hydrological extreme events in West Africa, we tried to answer the following questions:- What are the trends of maximum discharge in west Africa?- Are these trends due to climate changes or enviromental changes?- Which speculations can be made from these evolutions, according to future climate simulations?In the first part of the work, we analyzed the trends of floods over 14 watersheds of the region. This analysis allowed us to highlight a clustering behavior of flood according to the climatic region the catchments belong to. Increasing trends have been found on flood magnitude and flood frequency of the 3 sahelian catchments used, and decreasing trends of flood magnitude were found on three sudanian catchments. Finally, the remaining catchments did not showed significant trend in their flood regime...
|
145 |
APPROCHES STATISTIQUES POUR LA SÉPARATION AVEUGLE DE SOURCES : APPLICATION À LA ROBOTIQUE & À LA GUERRE ÉLECTRONIQUEAli, Mansour 10 November 2006 (has links) (PDF)
Mes activités de recherche sont les fruits de plus de douze ans du travail principalement dans trois différents établissements, à savoir : TIRF à l'INPG, BMC au RIKEN et E3I2 à l'ENSIETA. Mes activités de recherche s'articulent autour de 3 axes principaux:<br /><br />1- Séparation de sources<br /><br />Nos contributions à la séparation de sources peuvent être résumées principalement par:<br /><br />A- Approches par blocs: Nous avons montré que ce système peut se ramener aux solutions des équations du second degré ou du 4ème degré. La séparation proprement dite est immédiate obtenue par une simple inversion de la matrice mélange. Nous avons publié cette approche dans IEEE Trans. on Signal Processing (Vol 44, n°3, 1996).<br /><br />B- Approches adaptatives: Dans cette approche, nous avons proposé une fonction de coût, basée sur un cumulant du 4ème ordre, dont la minimisation par un algorithme de gradient nous conduit à la séparation de deux sources, étude publiée à IEEE Trans. on Signal Processing (Vol 43, n°. 8, 1995). Plus tard et en utilisant une méthode de minimisation dite méthode de Levenberg-Marquardt, nous avons proposé une autre étude pour un nombre quelconque de sources, étude publiée à IEEE Trans. on Signal Processing (Vol 47, n°. 11, 1999).<br /><br />C- Approches géométriques: Nous avons proposé plusieurs algorithmes pour faire la séparation de plusieurs sources, étude publiée dans Signal Processing (Vol 82, 2002). En utilisant un réseau de neurones pour l'estimation des densités de probabilité, on a proposé une autre méthode de séparation publiée dans la revue IEICE Trans on Fundamentals of Electronics, Communications and Computer Sciences en 2001. Cette dernière étude a été complétée par une approche basée sur le principe de "Simulated Annealing" et un réseau de "Competitive Learning" et a été publiée dans NeuroComputing (Vol 49, 2002).<br /><br />D- Approches algébriques: En collaboration avec l'université de Marne la vallée, nous avons suggéré des méthodes de type sous-espace pour séparer un mélange convolutif. Nous avons montré que le mélange convolutif peut être réduit à un mélange instantané en utilisant seulement les statistiques de second ordre. Cette étude a été publiée dans IEEE Trans. on Signal Processing (Vol 48, 2000). Plus tard, nous avons proposé d'autres fonctions de coût dont la minimisation conduit à une estimation plus rapide des paramètres de mélange, Signal Processing (Vol 81, 2001).<br /><br />E- Algorithmes simplifiés: Pour certaines applications, les<br />signaux originaux (sources) inconnus sont caractérisés par des propriétés qui sont eux bien connues. Pour "la capacité auditive" d'un robot qui imite le comportement des humains, seuls les signaux audibles et intelligibles sont à traiter. En utilisant certaines propriétés de ces derniers signaux, nous avons proposé plusieurs approches qui ont été présentées dans plusieurs conférences internationales et une autre approche basée sur l'inégalité de Hadamard a été publiée dans IEICE volJ82-1999.<br /><br /><br />2- Développements statistiques La grande majorité de méthodes dites aveugles exploitent certaines propriétés statistiques de signaux. Nos contributions dans ce domaine se limitent à deux axes:<br /><br />A- Théorique: En étudiant certaines propriétés de l'auto-cumulant d'ordre quatre normalisé, i.e. l'aplatissement (mieux connu sous le terme anglais "Kurtosis").<br /><br />B-Pratique: En faisant une étude comparative entre différents estimateurs et en proposant plus tard certains estimateurs pour les statistiques d'ordre quatre (moments et cumulants).<br /><br />3- Guerre électronique: Lorsqu'on parle de la guerre électronique, on vise principalement l'interception de signaux électromagnétiques dont la totalité de paramètres sont mal-connus ou inconnus.<br /><br />A- "COMmunication INTelligence" & "ELectronique INTelligence": Mes contributions dans ce domaine étaient les fruits de deux collaborations avec deux chercheurs de notre laboratoire D. Le Guen et L. Collin dans le cadre d'un projet industriel, l'encadrement de la thèse de M. Pedzisz et de stages de DEA.<br /><br />B- Tomographie passive est utilisée dans certaines applications militaires dans le cadre de la surveillance maritime ou la guerre électronique dans une façon plus large. Dans cette étude, nous avons modifié et adapté les algorithmes existants en séparation aveugle de sources pour parvenir à faire la séparation de signaux acoustiques de diverses natures et origines (bruits de bateaux ou de crevettes, vocalise de baleine ou de mammifère marin, etc). En 2ème temps, nous avons optimisé les algorithmes ainsi développés pour les adapter à un canal acoustique sous-marin.
|
146 |
CONTRIBUTION A LA SEPARATION AVEUGLE DE SOURCESAli, Mansour 13 January 1997 (has links) (PDF)
Le problème de séparation de sources est un problème relativement récent en traitement du signal, qui consiste à séparer des sources, statistiquement indépendantes, observées par un réseau de capteurs. Dans cette thèse, plusieurs approches ont été étudiées : <br /> <br />Deux approches directes, valables uniquement pour le mélange linéaire instantané, ont été proposées. La première, analytique, est basée sur les statistiques de signaux observés, l'autre géométrique, est basée sur les distributions de ces signaux, dont la densité de probabilité est supposée à support borné. <br /> <br />Pour les signaux de même signe de kurtosis, on a proposé un algorithme adaptatif basé uniquement sur les cumulants croisés (2x2). Ce critère est valable pour les mélanges instantanés, aussi bien pour les mélanges<br /> convolutifs. <br /> <br />L'hypothèse concernant le signe de kurtosis est assez fréquente dans la littérature sur la séparation de sources. Des études sur cette hypothèse, et sur sa relation avec la nature de sources, sont présentées dans cette thèse. <br /> <br />Finalement, en s'inspirant des méthodes d'identification aveugles et à l'aide de deux paramètrisations différentes de la matrice de Sylvester, on montre la possibilité de séparer un mélange convolutif ou le transformer en un mélange instantané, en utilisant les statistiques de second ordre. Dans ce cadre, trois algorithmes de sous-espaces sont proposés.
|
147 |
Analyse des statistiques imparfaites. Evolution démographique des pays francophones d'Afrique centrale (Cameroun, Congo, Gabon, République centrafricaine, Tchad)Makoundou, Esaï 28 June 2008 (has links) (PDF)
L'objet de ce travail est l'application de la démarche de l'analyse démographique sur des statistiques provenant de cinq pays francophones d'Afrique centrale (Cameroun, Congo, Gabon, RCA et Tchad) afin de mettre en lumière leurs faiblesses et de proposer des voies d'amélioration de la collecte. L'examen de l'évolution des phénomènes démographiques sur la période 1960-2000, au-delà des tendances observées, permet de constater les contraintes d'une conception de la collecte privilégiant l'approche transversale et empêchant une véritable confrontation avec l'approche longitudinale. De manière générale, les objectifs de la collecte, indépendamment des sources, contiennent les limites de l'utilisation des données en analyse démographique. La poursuite des objectifs de la démographie, en termes de connaissance et d'action, passe par la prise en compte des principes de l'analyse démographique, tout en remédiant à la marginalisation des mouvements migratoires, dans l'observation.
|
148 |
Technique d'auto test pour les imageurs CMOSLizarraga, L. 27 November 2008 (has links) (PDF)
Le test en production des imageurs CMOS est réalisé avec des testeurs qui utilisent des sources de lumière précises, aussi bien au niveau du test de plaquettes qu'au niveau du test de boîtiers. Ce besoin rends le test de ces produits plus compliqué et coûteux . En outre, ces types de tests ne peuvent pas être réalisés directement sur l'imageur afin d'incorporer des fonctions d'auto test. Celles-ci sont intéressantes pour la réduction des coûts du test de production et pour le diagnostic de l'imageur. Le diagnostic est très important lors de la production des imageurs et aussi lors de leur utilisation dans certaines applications, en particulier quand ils sont soumis à des sources de stress importantes. En général, les utilisateurs des imageurs possèdent rarement l'équipement nécessaire pour vérifier leur fonctionnalité. Dans cette thèse, nous étudions et évaluons une technique d'auto test (BIST) pour les capteurs de vision CMOS. Cette technique réalise un test structurel de l'imageur. Le test structurel est basé sur des stimuli électriques appliqués dans l'anode de la photodiode et dans les transistors du pixel. La qualité de l'auto test est évaluée en fonction de métriques de test qui tiennent en compte des déviations du process et la présence de fautes catastrophiques et paramétriques. La technique d'auto test est validée pour deux imageurs, l'un utilisant des pixels à intégration et l'autre des pixels logarithmiques. Une validation expérimentale est réalisé pour le cas de l'imageur logarithmique.
|
149 |
Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabricationAlegret, Cyril 30 October 2006 (has links) (PDF)
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits.<br />Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run).
|
150 |
Quelques méthodes statistiques en contrôle de qualitéFredenucci, Bernard 26 September 1980 (has links) (PDF)
.
|
Page generated in 0.0156 seconds