• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 34
  • 3
  • Tagged with
  • 82
  • 31
  • 27
  • 26
  • 18
  • 17
  • 16
  • 13
  • 11
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Automatic reconstruction and analysis of security policies from deployed security components / Analyse et reconstruction automatique de politiques de sécurité de composants de sécurité déployés

Martinez, Salvador 30 June 2014 (has links)
La sécurité est une préoccupation essentielle pour tout système d’information. Propriétés de sécurité telles que la confidentialité, l’intégrité et la disponibilité doivent être appliquées afin de rendre les systèmes sures. Dans les environnements complexes, où les systèmes d’information sont composés par un certain nombre de sous-systèmes hétérogènes, chaque sous-système joue un rôle clé dans la sécurité globale du système. Dans le cas spécifique du contrôle d’accès, politiques de contrôle d’accès peuvent être trouvées dans différents composants (bases de données, réseaux, etc.), ces derniers étant sensés travailler ensemble. Néanmoins , puisque la plupart de ces politiques ont été mises en œuvre manuellement et / ou évolué séparément ils deviennent facilement incompatibles. Dans ce contexte, la découverte et compréhension des politiques de sécurité appliquées par le système d’information devient une nécessité critique. Le principal défi à résoudre est de combler le fossé entre les caractéristiques de sécurité dépendant du fournisseur et une représentation de plus haut niveau que exprime ces politiques d’une manière faisant abstraction des spécificités de composants concrètes, et donc, plus facile à comprendre et à raisonner avec. Cette représentation de haut niveau nous permettrait également de mettre en œuvre tous les opérations de évolution / refactoring / manipulation sur les politiques de sécurité d’une manière réutilisable. Dans ce travail, nous proposons un tel mécanisme de rétro-ingénierie et d’intégration des politiques de contrôle d’accès. Nous comptons sur les technologies de l’ingénierie dirigée par les modèles pour atteindre cet objectif . / Security is a critical concern for any information system. Security properties such as confidentiality, integrity and availability need to be enforced in order to make systems safe. In complex environments, where information systems are composed by a number of heterogeneous subsystems, each subsystem plays a key role in the global system security. For the specific case of access-control, access-control policies may be found in several components (databases, networksand applications) all, supposedly, working together. Nevertheless since most times these policies have been manually implemented and/or evolved separately they easily become inconsistent. In this context, discovering and understanding which security policies are actually being enforced by the information system comes out as a critical necessity. The main challenge to solve is bridging the gap between the vendor-dependent security features and a higher-level representation that express these policies in a way that abstracts from the specificities of concrete system components, and thus, it´s easier to understand and reason with. This high-level representation would also allow us to implement all evolution/refactoring/manipulation operations on the security policies in a reusable way. In this work we propose such a reverse engineering and integration mechanism for access-control policies. We rely on model-driven technologies to achieve this goal.
22

Approches de classifications à partir de données fortement censurées pour l'analyse de fiabilité et la définition de stratégies de maintenance : application aux marquages routiers dans un contexte de véhicules autonomes / Clustering-approach based on strongly censored data for reliability analysis and maintenance strategy modelling : application to road markings in the context of the autonomous car traffic

Redondin, Maxime 13 December 2018 (has links)
La qualité et la fiabilité des infrastructures routières jouent un rôle majeur dans la sécurité routière. Cela est d'autant plus vrai lorsque qu'on s'intéresse à la circulation de véhicules autonomes qui doivent être capables à terme de circuler seuls dans l'environnement routier. Les récents travaux menés au sein de VEDECOM montrent qu'une signalisation horizontale routière claire et visible est importante dans sa prise de décision. La détection des lignes de marquage sont en grande partie réalisée par des caméras. Afin d'optimiser cette approche et prévenir les situations de non détection, cette thèse propose des outils d'analyse de fiabilité et d'aide à la maintenance de la signalisation horizontale. Aujourd’hui, la fiabilité des marquages est basée le phénomène de rétro-réflexion : un véhicule éclaire avec ses feux de croisement un marquage qui renvoie la lumière vers le conducteur. Pour établir son niveau de dégradation, des campagnes d'inspection sont réalisées par des rétro-réflectomètres montés sur des véhicules traceurs. La littérature des trente dernières années présente essentiellement des modèles de dégradation basés sur des méthodes de régression. Ces derniers présentent de nombreuses difficultés à être déployés dans le cadre d'un plan de maintenance. Cette thèse propose d'aborder ces questions sous l'angle de la théorie de la fiabilité et de la maintenance tout en tenant compte des pratiques actuelles. Une ligne de marquage est ici interprétée comme un système multi-composants monté en parallèle. Cette thèse propose de l'analyser en quatre points. Premièrement, l'ensemble des inspections est formalisé en une base de suivi. Si des données sont manquantes et si l'historique de maintenance est indisponible, alors différentes approches basées sur une Classification Ascendante Hiérarchique (CAH) sont proposées afin de les estimer. Deuxièmement, l'entretien de la totalité d'une ligne est logistiquement délicat. Une CAH de la base de suivi a pour fonction d'établir les marquages suivant un même modèle de dégradation. Les clusters sont géographiquement localisés et corrélés à des situations précises comme un échangeur ou une agglomération. Pour ces raisons, ils sont interprétés comme des zones de maintenance stratégiques. Troisièmement, réaliser une analyse de Weibull des marquages. Les rétro-réflectomètres n'indiquent pas précisément les instants de défaillance. Ils sont statistiquement censurés à gauche, à droite ou par intervalle. En alternative à la méthode du Maximum de Vraisemblance, une approche basée sur un algorithme EM est proposé afin d'établir le modèle de Weibull et les censures estimées les plus vraisemblables. Dernièrement, deux stratégies de maintenance sont proposées : systématique par rapport à l'âge et conditionnée par la dégradation courante. Elles sont en adéquation avec les pratiques de maintenance. La première permet une gestion passive de l'entretien tandis que la seconde permet une connaissance avancée de la ligne de marquage dans le temps. A partir d'un système multi-composants non réparable et fortement censuré, les composants suivant un même modèle de dégradation sont classables, chaque groupe connait un modèle de durée de vie et finalement il est possible de déduire un plan de maintenance adapté / The quality and reliability of road infrastructure and its equipment play a major role in road safety. This is especially true if we are interested in autonomous car traffic. Recent papers from VEDECOM Institut proves that a clear and reliable road marking is important in it decison making. Marking lanes are detected by camera. These markings need an accurate maintenance strategy to guarantee that the markings remain perceptible. This report proposes different solutions based on the reliabilty and maintenance theory. Today, the markings reliability is based on the retroreflective illuminance. A retroreflective marking reflects light from a vehicle headlight back in the direction of the driver. Marking retroreflectivity can be dynamically inspected using a retroreflectometer. The litterature of the last thirty years proposes degradation models for retroreflective marking based on a regression model. All of them have a common weakness: they are difficult to apply directly to a given road network. This report presents maintenance models who math with current maintenance actions. A marking lane is interpreted as multi-unit systeme. All unit are laid in parallel. The global maintenance strategy is based on four points. First, the whole inspection data is formalized into one monitoring base. If inspection data is missing or if the maintenance historic is unavailable else an estimation process based on the Agglomerative Hierarchical Clustering (AHC) is proposed. Second, to replace a whole markings lane is logistically difficult to work. Again, an AHC of the monitoring proposed several clusters. Each cluster presents it own degradation model. Clusters are geographically tracked and correlated to specific situation (interchange, urban area, bypass...). That's why a cluster is interpreted as a maintenance strategic area. Thirdly, a Weibull analysis of each cluster is done. Current retroreflectometers cannot detects the exact faillure moment. this information is statistically censored. Three cases are identified : left, right and interval censored. To parameter a Weibull model, an EM Algorithm is propoased as an alternative to the Maximum Likelihood Estimator. This algorithm is also an estimator to censored markings life time. Lastly, two classic preventive maintenance strategies are proposed : systematic according to the age and conditionned to the current degradation. Each one is credible according the current maintenance practice. The first prposed a passsive managament of the markings maintenance. The second ensures an advanced knowledge of the road network over the time. On a multi-unit system no-repairable and strongly censored, units which admit the same degradation model are identified by a clustering approach. Each cluster present it own Weibull analysis. Finally, an adapted maintenance strategy is done
23

Formal Approaches for Automatic Deobfuscation and Reverse-engineering of Protected Codes / Approches formelles de désobfuscation automatique et de rétro-ingénierie de codes protégés

David, Robin 06 January 2017 (has links)
L’analyse de codes malveillants est un domaine de recherche en pleine expansion de par la criticité des infrastructures touchées et les coûts impliqués de plus en plus élevés. Ces logiciels utilisent fréquemment différentes techniques d’évasion visant à limiter la détection et ralentir les analyses. Parmi celles-ci, l’obfuscation permet de cacher le comportement réel d’un programme. Cette thèse étudie l’utilité de l’Exécution Symbolique Dynamique (DSE) pour la rétro-ingénierie. Tout d’abord, nous proposons deux variantes du DSE plus adaptées aux codes protégés. La première est une redéfinition générique de la phase de calcul de prédicat de chemin basée sur une manipulation flexible des concrétisations et symbolisations tandis que la deuxième se base sur un algorithme d’exécution symbolique arrière borné. Ensuite, nous proposons différentes combinaisons avec d’autres techniques d’analyse statique afin de tirer le meilleur profit de ces algorithmes. Enfin tous ces algorithmes ont été implémentés dans différents outils, Binsec/se, Pinsec et Idasec, puis testés sur différents codes malveillants et packers. Ils ont permis de détecter et contourner avec succès les obfuscations ciblées dans des cas d’utilisations réels tel que X-Tunnel du groupe APT28/Sednit. / Malware analysis is a growing research field due to the criticity and variety of assets targeted as well as the increasing implied costs. These softwares frequently use evasion tricks aiming at hindering detection and analysis techniques. Among these, obfuscation intent to hide the program behavior. This thesis studies the potential of Dynamic Symbolic Execution (DSE) for reverse-engineering. First, we propose two variants of DSE algorithms adapted and designed to fit on protected codes. The first is a flexible definition of the DSE path predicate computation based on concretization and symbolization. The second is based on the definition of a backward-bounded symbolic execution algorithm. Then, we show how to combine these techniques with static analysis in order to get the best of them. Finally, these algorithms have been implemented in different tools Binsec/se, Pinsec and Idasec interacting alltogether and tested on several malicious codes and commercial packers. Especially, they have been successfully used to circumvent and remove the obfuscation targeted in real-world malwares like X-Tunnel from the famous APT28/Sednit group.
24

L'analyse formelle de concepts : un cadre structurel pour l'étude de la variabilité de familles de logiciels / Formal concept analysis : a structural framework to study variability in software families

Carbonnel, Jessie 29 October 2018 (has links)
Des familles de logiciels similaires proviennent fréquemment de pratiques de réutilisation de clones de logiciels existants, qui sont ensuite enrichis ou dépouillés de fonctionnalités pour suivre de nouvelles exigences. Avec le temps, ces variantes se multiplient et se complexifient, et il devient difficile de les maintenir, de les faire évoluer. L’ingénierie des lignes de produits logiciels regroupe un ensemble de méthodes visant à faciliter le développement et la gestion de telles collections de logiciels similaires. Documenter la variabilité est le point central de ce paradigme ; on la représente à travers des modèles de variabilité, qui servent de supports à la grande majorité des processus propres à l’ingénierie des lignes de produits. La migration complète ou partielle de ces familles de logiciels vers des approches de type lignes de produits permet la simplification de leur exploitation. La rétro-ingénierie, la modélisation et la gestion de la variabilité sont reconnues comme une phase cruciale et ardue de cette migration. Par conséquent, de nombreuses approches ont été proposées pour étudier des descriptions de familles de logiciels dans ce but. Plusieurs d’entre elles s’appuient sur l’analyse formelle de concepts, un cadre mathématique de groupement hiérarchique qui organise un ensemble d’objets et leurs descriptions dans une structure canonique mettant naturellement en évidence leurs aspects communs et variables.Dans ce manuscrit, nous défendons l'idée que l’analyse formelle de concepts, plus qu’un outil, offre un véritable cadre structurel et réutilisable à l’étude de la variabilité des familles de produits.Dans un premier temps, nous établissons un panorama des informations sur la variabilité qui sont mises en évidence grâce à ce formalisme, et discutons de son spectre d’applicabilité. Nous étudions les points communs entre les structures conceptuelles produites par l’analyse formelle de concepts et les modèles de variabilité. Dans un second temps, nous illustrons l’utilisation originale de ces structures conceptuelles comme support à des opérations de conception et de recherche d’informations. Enfin, nous élargissons notre champ d’étude aux informations plus complexes définies par des modèles de variabilité qui ont été étendus pour en améliorer l’expressivité, et dont la rétro-ingénierie est encore peu étudiée à ce jour. Nous montrons comment certaines propriétés de l’analyse formelle de concepts permettent de généraliser son utilisation à des descriptions de variantes plus complexes, et étudions son application pour la manipulation d’attributs multivalués et de cardinalités, en complément des caractéristiques booléennes traditionnelles. Nous évaluons notre approche sur des données issues de dépôts tels que SPLOT, fork-insight et de matrices de comparaison de produits de wikipedia. / Software families often rise from reuse practices as cloning existing software products which are then enhanced or pruned to fulfill new requirements. With time, these variants grow in number and in complexity, and become more and more complex to maintain. Software product line engineering gathers a set of methods that aims at facilitating the management and development of such collections of existing variants. Documenting variability is the central point of this paradigm; This variability is represented in variability models that support a large part of software product line engineering processes.The partial or complete migration from software families to a product line approach eases their exploitation.Reverse-engineering, modeling and managing variability are known as crucial tasks of the migration: therefore, numerous methods have been proposed to study descriptions of software families for this goal.Some of them are based on formal concept analysis, a mathematical framework for hierarchical clustering which organises set of objects and their descriptions in canonical structures highlighting naturally their commonalities and variability.In this thesis, we defend that formal concept analysis, more than a tool, is a relevant structural, reusable and extensible framework to study variability of software families.First, we propose an overview of variability information which is highlighted thanks to this framework, and we discuss its scope of applicability.We study the common points between the conceptual structures of formal concept analysis and variability models.Then, we show how to use these conceptual structures to support research and modeling operations.Finally, we broaden the scope of this study to take into account more complex information about extended variability.We evaluate our method on data taken from the SPLOT repository, fork-insight and product comparison matrices from wikipedia.
25

Regulation of DNA methylation by DNA glycosylases MBD4 and TDG / Régulation de la methylation de l'ADN par les glycosylases MBD4 et TDG

Ibrahim, Abdulkhaleg 19 May 2015 (has links)
Chez les mammifères, la méthylation est une marque épigénétique ciblant la cytosine principalement dans un contexte CpG pour produire une 5mC. 5mC est très sensible à une déamination spontanée ou enzymatique, conduisant à la formation d'un mésappariement G/T. La 5mCpeut également être oxydée pour former successivement la 5hmC, la 5fC et la 5caC. Ces modifications de la 5mC participent aux processus actifs de déméthylation de l’ADN. Chez les mammifères, la thymine, dans le mésappariement G/T, est clivée par TDG et MBD4. TDG est également en mesure d'exciser 5fC et 5caC. Cette thèse avait pour but de clarifier la fonction de TDG et MBD4 dans la dynamique de la 5mC. Nous avons montré que MBD4 est associée aux protéines de réparation des mésappariements. Les tests enzymatiques, in vitro, montrent que le complexe MBD4/MMR a une activité bifonctionnelle (glycosylase/lyase) spécifique pour G/T, qui est régulée par la méthylation. Pour TDG, nous avons ciblé cette enzyme dans les cellules MEF et caractérisé la distribution des cytosines modifiées. Les résultats montrent des profils de méthylation/oxydation d'ADN qui sont régulés par TDG et surviennent principalement au niveau des répétitions de CA et dans les rétroéléments spécifiques de la lignée souris. / In mammals, methylation is an epigenetic mark targeting cytosine mainly in a CpG context, producing 5mC. 5mC is highly sensitive to a spontaneous or enzymatic deamination leading to G/Tmismatch. 5mC can also be oxidized to 5- 5hmC, 5fC and 5caC. These modifications of 5mC participate in the active demethylation processes. In mammals, the thymine in G/T mismatch is cleaved by TDG and MBD4 glycosylases. TDG is able also to excise the 5fC and 5caC.This thesis was to clarify the function of TDG and MBD4 in the dynamics of 5mC. We showed that MBD4 is associated with PMS2, MLH1, MSH2 and MSH6 proteins, four proteins involved in DNA mismatch repair (MMR). The in vitro enzymatic tests show that MBD4/MMR complex has a bifunctional glycosylase/lyase activity specific for G/T and is regulated by methylation.For TDG, we targeted this enzyme in MEF cells and characterized the distribution of modified cytosines. The results show that DNA methylation/oxidation patterns are regulated by TDG and occur mainly at CA repeats and at the mouse-lineage specific retro-elements.
26

Catalytic cleavage of vegetable oil derivatives to aldehydes and other bio-based building blocks / Coupure catalytique de dérivés d'huiles végétales en aldéhydes et autres plateformes biosourcées

Vu, Duc Nam 19 November 2018 (has links)
Les aldéhydes sont des produits chimiques importants dans la synthèse organique, en raison de leurs vastes applications dans les cosmétiques, les produits pharmaceutiques et les herbicides. De plus, ils peuvent être convertis en composés à valeur ajoutée tels que des tensioactifs, des polymères, etc. Classiquement, les aldéhydes sont produits par hydroformylation ou ozonolyse réductrice des alcènes. Cependant, les deux méthodes souffrent de l'utilisation de catalyseurs coûteux et de ligands sophistiqués (hydroformylation) ou de la nécessité d'un procédé à forte intensité énergétique (ozonolyse). En conséquence, le développement d'approches plus durables pour la production d'aldéhydes est hautement souhaitable.Dans ce contexte, nous avons développé deux méthodes pour produire des aldéhydes à partir de dérivés d’acides gras insaturés. La première voie consiste à préparer des a-hydroxycétones grasses à partir de 1,2-diols et les couper pour obtenir des aldéhydes avec de bons rendements. Dans cette voie, deux systèmes catalytiques (homogènes et hétérogènes à base de métaux) ont été développés pour oxyder les diols vicinaux en a-hydroxycétones correspondantes. La coupure de ces espèces a été effectuée par un procédé de rétro-benzoin utilisant des sels de thiazolium thermiquement stables et les aldéhydes ont été récupérés par distillation réactive. La seconde voie repose sur la décomposition des ß-hydroxy hydroperoxydes gras facilement préparés à partir d'oléate de méthyle époxydé. De plus, la décomposition de l'espèce peroxyde a été étudiée dans des conditions thermiques pour donner des aldéhydes. Enfin, la coupure des 1,2-dicétones gras et la valorisation des aldéhydes ont également été étudiés pour conduire aux esters correspondants pouvant être utilisés comme monomères / Aldehydes are important chemicals in organic synthesis, due to their vast applications in cosmetics, pharmaceuticals and herbicides. Moreover, they can be converted to value-added compounds such as surfactants, polymers, etc. Conventionally, aldehydes are produced through hydroformylation or reductive ozonolysis of alkenes. However, both methods suffer from the use of expensive catalyst and sophisticated ligands (hydroformylation) or the requirement of high energy intensive process (ozonolysis). As a result, the development of more sustainable approaches for the production of aldehydes is highly desirable.In this context, we have developed two methods to produce aldehydes from unsaturated fatty acid derivatives. The first route involves the preparation of fatty a-hydroxyketones from 1,2-diols and their cleavage to give aldehydes with good yields. In this route, two catalytic systems (metal-based homogeneous and heterogeneous) have been developed to oxidize vicinal diols to corresponding a-hydroxyketones. The cleavage of these species has been carried out through a retro-benzoin process using thermally stable thiazolium salts and the aldehydes were recovered by reactive distillation. The second route relies on the decomposition of fatty ß-hydroxy hydroperoxides that are easily prepared from epoxidized methyl oleate. Moreover, the decomposition of the peroxide species was studied under thermal conditions to give aldehydes. Finally, the cleavage of fatty 1,2-diketones and the valorization of aldehydes were also studied to give the corresponding esters that could be used as monomers
27

Utilisation de nouvelles techniques d'imagerie pour la vision en milieux diffusants

Belin, Etienne 19 December 2008 (has links) (PDF)
La vision à travers les milieux diffusants est rendue difficile à cause des interactions entre la lumière et les particules composant le milieu. Dans le cadre de la vision dans le brouillard, ces trvaux de thèse portent sur l'étude de deux techniques optiques : l'une fondée sur la tomographie par cohérence optique (OCT) couplée à un cristal photo-réactif (PCR) et l'autre reposant sur le principe de la rétro-injection dans un micro-laser. Un modèle analytique fondé sur la théorie de Mie est développé pour prédire la décroissance du rapport signal à bruit dans une scène bruitée par du brouillard. L'exploitation des résultats analytique met en avant la nécessité de sélectionner l'information utile et d'éliminer le bruit lumineux lors des prises de vue pour conserver des images correctement contrastées . Nous démontrons le fort potentiel exploitable des deux techniques d'imagerie étudiées puisqu'elles reposent sur le principe de sélection du signal utile. Le montage OCT-PRC réalise une sélection par cohérence temporelle et le montage de rétro-injection laser une sélection spatiale. Les résultats obtenus en présence d'un milieu perturbateur sont détaillés en explicitant les limitations des dispositifs actuels et les voies d'améliorations à entreprendre.
28

Analyse et détection dynamique de codes viraux dans un contexte cryptographique

Josse, Sébastien 10 April 2009 (has links) (PDF)
Cette thèse est consacrée à la problématique de l'évaluation des produits antivirus. L'utilisateur final d'un produit antivirus ne sait pas toujours quelle confiance il peut placer dans son produit antivirus pour parer convenablement la menace virale. Pour répondre à cette question, il est nécessaire de formuler la problématique de sécurité à laquelle doit répondre un tel produit et de disposer d'outils et de critères méthodologiques, techniques et théoriques permettant d'évaluer la robustesse des fonctions de sécurité et la pertinence des choix de conception au regard d'une menace virale identifiée. Je concentre mon analyse de la menace virale sur quelques mécanismes (mécanismes cryptographiques, transformations de programme) adaptés au contexte boîte blanche, i.e. permettant à un virus de protéger ses données critiques en confidentialité et de masquer son fonctionnement dans un environnement complètement maîtrisé par l'attaquant. Une première étape incontournable avant toute organisation d'une ligne de défense consiste à analyser les virus, afin d'en comprendre le fonctionnement et les effets sur le système. Les méthodes et techniques de la rétro-ingénierie logicielle occupent ici - au côté des techniques de cryptanalyse - une place centrale. J'ai pris le parti de focaliser sur les méthodes dynamiques d'extraction d'information fondées sur une émulation du matériel supportant le système d'exploitation. L'évaluation d'un moteur de détection selon des critères objectifs requiert un effort de modélisation. J'étudie quelques modèles utilisés actuellement (grammaires formelles, interprétation abstraite, statistique). Chacun de ces modèles permet de formaliser certains aspects du problème de la détection virale. Je m'attache à l'étude des critères qu'il est possible de définir dans chacun de ces cadres formels et à leur utilisation pour partie des travaux d'évaluation d'un moteur de détection. Mes travaux m'ont conduit à la mise en oeuvre d'une approche méthodologique et d'une plate-forme de tests pour l'analyse de robustesse des fonctions et mécanismes d'un produit anti-virus. J'ai développé un outil d'analyse de code viral, appelé VxStripper, dont les fonctionnalités sont utiles à la réalisation de plusieurs des tests. Les outils formels sont utilisés pour qualifier en boîte blanche - ou sur la base des documents de conception détaillée - la conformité et l'efficacité d'un moteur de détection.
29

Contribution à l'étude des tumeurs de la tête et du cou : analyse critique de certaines voies d'abord chirurgicales des espaces rétro et latéro-pharyngés et des facteurs pronostiques des lymphomes malins non-hodgkiniens de la tête et du cou

Laccourreye, Laurent 27 November 2008 (has links) (PDF)
Les espaces rétro et latéro-pharyngés sont le siège de tumeurs de nature histologique très variée. Leur richesse en éléments lymphatiques les rend particulièrement exposés aux disséminations lymphatiques des carcinomes épidermoïdes mais aussi aux localisations primitives et secondaires des lymphomes malins de la tête et du cou. Leur abord à visée diagnostique ou thérapeutique reste délicat. La première partie de ce travail a permis de préciser la technique, les limites et les indications de trois voies d'abord peu usitées. La voie trans-orale permet l'exérèse de lésions de volume modéré et bien encapsulées de ces espaces avec une très faible morbidité. Les progrès de la chirurgie robotisée devraient permettre d'étendre ses indications. La voie cervico-transmandibulaire procure une parfaite exposition de la base du crâne et un excellent contrôle des éléments vasculo-nerveux qui en sortent. Elle apparaît indiquée pour l'exérèse des volumineuses tumeurs des espaces péripharyngés enchâssées contre la base du crâne, ou qui englobent la carotide interne. La voie infralabyrinthique s'adresse aux lésions du foramen jugulaire à développement essentiellement extra-crânien. Elle permet d'éviter un déroutement du nerf facial et peut, en cas de nécessité, être aisément convertie en une voie d'abord plus large. La deuxième partie de ce travail est consacrée à l'étude des lymphomes malins non hodgkiniens de la tête et du cou. Elle a permis, d'une part, de confirmer la faisabilité et les bons résultats d'un traitement combiné associant chimiothérapie et radiothérapie et, d'autre part, d'affiner les facteurs pronostiques déjà décrits dans le cadre des lymphomes non hodgkiniens quelle que soit leur localisation. Ainsi un âge supérieur à 45ans, une masse tumorale de plus de 5cm, une maladie localisée aux glandes salivaires et l'atteinte de plusieurs sites extra-ganglionnaires se sont révélés être de pronostic défavorable.
30

From rift system to doubly vergent orogen : An evolutionary model based on a case study of the Eastern Pyrenees and controlling factors from numerical models / Du système de rift à l'orogène à double vergence : un modèle évolutif basé sur l'étude de cas des Pyrénées Orientales et une étude des facteurs de contrôle à partir des modèles numériques

Grool, Arjan Ruben 22 January 2018 (has links)
Les orogènes à double vergence sont classiquement définis comme deux prismes critiques opposés (pro et retro) qui évoluent ensemble. Les études récentes montrent que les rétro-prismes et leurs bassins d’avant-pays associés se comportent différemment des pro-prismes. Cependant, ni les facteurs qui mènent un orogène à devenir doublement vergent, ni la relation entre le pro- et rétro-prisme ne sont bien compris. Le but de cette étude est d'améliorer notre connaissance 1) de la relation entre le pro- et le rétro-prisme pendant l'orogénèse, 2) des facteurs contrôlant l'évolution d'un orogène à double vergence, et 3) d’un lien dynamique possible entre le pro- et le rétro-prisme. Répondre à ces questions nécessite une connaissance améliorée de l'évolution d'un orogène à double vergence. Nous nous sommes concentrés sur les Pyrénées Orientales, en raison de la grande quantité de données disponibles. Nous avons effectué une étude de terrain tectono-stratigraphique détaillée à l’est du Massif de Saint Barthelemy et dans l’avant-pays autour de Lavelanet (plaque Européenne). Notre interprétation d’une coupe restaurée intègre une configuration crustale pré-orogenique en tant qu'une marge hyper-amincie. Nous relions l'évolution détaillée du rétro-prisme à celle du pro-prisme (plaque Ibérique), afin de mieux contraindre la dynamique à l'échelle crustale. Nous subdivisons l'évolution des Pyrénées Orientales en quatre phases. La première phase (Crétacé Supérieur) est caractérisée par la fermeture d'un domaine de manteau exhumé entre les plaques et l'inversion synchrone d'un système de rift riche en sel et thermiquement déséquilibré. Le raccourcissement était distribué de façon égale entre les deux marges pendant cette première phase d’inversion. Une phase de quiescence (Paléocène), limitée au rétro-prisme, enregistre la transition entre l'inversion et la phase de collision. La phase de collision principale (Éocène) enregistre le taux de raccourcissement le plus élevé, et était principalement accommodé dans le pro-prisme. Pendant la phase finale (Oligocène) le rétro-prisme était largement inactif et le raccourcissement du pro-prisme a ralenti. Cela démontre que la relation entre le pro- et rétro-prisme change avec le temps. Nous avons utilisé des modèles numériques 2D thermomécaniques à l'échelle lithosphérique pour simuler l'évolution d'un orogène à double vergence s'initie après avec un rift. Nos résultats montrent un modèle évolutif similaire à celui observé dans les Pyrénées Orientales avec une phase d'inversion du rift approximativement symétrique suivie d'une phase de collision asymétrique. L'héritage du rift est essentiel pour permettre le développement d’un orogène à double vergence. Des autres facteurs, comme les processus de surface et la déformation de la couverture, ont un effet significatif sur la structure crustale et la répartition du raccourcissement entre les deux prismes. Un niveau de décollement (sel) à la base de la couverture favorise la formation d'un empilement antiformal d’écailles crustales, similaire à la géométrie observée dans la Zone Axiale des Pyrénées, en formant un prisme à faible pente qui force la déformation crustale à se concentrer dans l'arrière-pays. Enfin, nous montrons que l'évolution des pro- et rétro-prismes est inextricablement liée : des événements ou des conditions d'un côté de l'orogène ont un effet direct sur l'autre côté de l'orogène. Ceci est clairement démontré dans nos modèles par des variations constantes des taux de raccourcissement du pro- et rétro-prisme en réponse à l'accrétion dans le pro-prisme. Le Haut Atlas (Maroc) et Pyrénées peuvent être respectivement considérés comme des exemples d'inversion de rift symétrique et de phases de collision asymétrique ultérieures / The doubly vergent nature of some natural orogens is classically understood as two opposing thrust wedges (pro and retro) that comply with critical taper theory. The evidence that retro-wedges and their associated basins behave differently from their pro-wedge counterparts has been steadily increasing over the past few decades. However, what causes an orogen to become doubly vergent is currently not well understood. Nor is the relationship between the pro- and retro-wedge during the evolution of a doubly vergent orogen. It is the aim of this work to improve our understanding of: 1) how the pro- and retro-wedges relate to each other during the orogenic process, 2) what factors control the evolution of a doubly vergent orogen and 3) a possible link between the pro- and retro-wedge. Answering these questions requires an improved knowledge of the evolution of a doubly vergent orogen. We focussed on the Eastern Pyrenees as a type example of a doubly vergent orogen, due to the large amount of available data. We performed a detailed tectonostratigraphic study of the retro-foreland of the Eastern Pyrenees (European plate), updating the interpretation based on recent insights into its hyperextended rift origins. We link the evolution of the retro-foreland to that of the pro-foreland (Iberian plate) in order to derive insight into the crustal scale dynamics. Based on cross section restoration, reconstructed shortening rates and subsidence analysis, we subdivide the East Pyrenean evolution into four phases. The first (Late Cretaceous) phase is characterised by closure of an exhumed mantle domain between the European and Iberian rifted margins, and simultaneous inversion of a salt-rich, thermally unequilibrated rift system. Shortening was distributed roughly equally between both margins during this early inversion phase. Following inversion, a quiescent phase (Paleocene) was apparently restricted to the retro-foreland. This phase may record the period of transition between inversion and full collision in the Eastern Pyrenees. The main collision phase (Eocene) records the highest shortening rates, which was predominantly accommodated in the pro-wedge. Retro-wedge shortening rates were lower than during the rift inversion phase. During the final phase (Oligocene) the retro-wedge was apparently inactive and shortening of the pro-wedge slowed. This demonstrates that the relationship between the pro- and retro-wedges changes through time. We used lithosphere-scale thermo-mechanical numerical models to simulate the evolution of a doubly vergent orogen. Our results show a similar evolutionary pattern as observed in the Pyrenees: A roughly symmetrical rift inversion phase is followed by an asymmetric collision phase. Rift inheritance was found to be essential for enabling double vergence. Other factors, such as surface processes and thin-skinned deformation, were found to have a significant effect on the crustal structure and strain partitioning between both wedges. A salt décollement layer in the sedimentary cover promotes the formation of a crustal antiformal stack such as observed in the Pyrenees and Alps by forming a wide and low-taper thin-skinned fold-and-thrust belt that forces crustal deformation to focus in the hinterland. Finally, we show that the evolution of the pro- and retro-wedges is inextricably linked: events or conditions on one side of the doubly vergent orogen have an immediate effect on the other side of the orogen. This is clearly demonstrated in our models by constant variations in shortening rates of the pro- and retro-wedge in response to accretion of new pro-wedge thrust sheets. The High Atlas (Morocco) and Pyrenees can be seen as examples of symmetric rift inversion and later asymmetric collision phases, respectively

Page generated in 0.0342 seconds