Spelling suggestions: "subject:"cartesian""
201 |
Conception et évaluation des méthodes et des systèmes d'aide a la décision pour une médecine personnalisée / Conception and evaluation of methods and decision support systems for personnalized medicineDouali, Nassim 02 April 2015 (has links)
La sécurité est une première étape essentielle dans l'amélioration de la qualité des soins. Devant l’importance de ces erreurs qui menacent 12 millions de patients aux USA chaque année ; plusieurs travaux ont essayé de trouver des solutions pour réduire les erreurs médicales et les effets indésirables des médicaments : La médecine basée sur la preuve, la médecine personnalisée et les systèmes d’aide à la décision médicale. Les sociétés savantes élaborent de façon périodique des recommandations de bonnes pratiques pour aboutir à instaurer une médecine basée sur la preuve. Ces recommandations sont considérées comme des outils efficaces pour faire pont entre la pratique médicale des praticiens et les preuves scientifiques.La simple diffusion de GBPC n’a qu’un impact limité sur les pratiques cliniques.Plusieurs études ont montré que l’informatisation de ces guides en les intégrant dans le Workflow clinique permet d’améliorer l’adhérence des médecins à ces recommandations. Les guides de bonnes pratiques cliniques ne couvrent pas les caractéristiques individuelles des patients. Un des objectifs d’amélioration des soins et de la réduction des effets indésirables des patients est la personnalisation de la prise en charge. Cette personnalisation nécessite l’utilisation de toutes les informations (cliniques, biologiques, génétiques, radiologiques, sociales..) pour caractériser le profil du patient. Nous avons développé une méthode de raisonnement hybride, CBFCM, capable d’utiliser des connaissances et des données hétérogènes. L’implémentation de la méthode a été faite avec des outils du web sémantique. Nous avons développé un environnement Open Source pour la modélisation et la formalisation des connaissances médicales (recommandations..). Nous avons validé la méthode avec plusieurs études dans le domaine des infections urinaires mais aussi dans d’autres domaines (pneumologie, stéatose hépatique non alcoolique, diabète gestationnel..). L’intégration des données génétiques, cliniques et biologiques nous a permis d’améliorer la prédiction de certaines maladies (NASH). / Several studies have tried to find ways to reduce medical and adverse drug errors:The evidence-based medicine, personalized medicine and clinical decision support systems. Many recommandations are developped periodically to improve a best practices. These recommendations are considered effective tools to bridge between medical practitioners and practice of scientific evidence. The use of the Clinical Practice Guidelines has a limited impact on clinical practice. Several studies showed that the computerization of these guides by integrating them into the clinical workflow improves adherence of physicians to these recommendations.One of the aims of improving care and reducing adverse effects of patients is personalizing care. This customization requires the use of all the information (clinical, biological, genetic, radiological, social..) to characterize the profile of the patient.We have developed a method of hybrid reasoning "Case Based Fuzzy CognitiveMaps" able to use knowledge and heterogeneous data. The implementation of themethod was made with semantic web technologies. We have developed an open source environment for modeling and formalization of medical knowledge.We validated the method with several studies in the field of urinary tract infections,but also in other areas (respiratory, nonalcoholic fatty liver disease, gestational diabetes..). The integration of genetic, clinical and laboratory data have allowed us to improve the prediction of certain diseases (NASH).
|
202 |
Liouville theory and random maps / Théorie de Liouville et cartes aléatoiresCharbonnier, Séverin 10 September 2018 (has links)
Cette thèse explore divers aspects des cartes aléatoires par l'étude de trois modèles. Dans un premier temps, nous examinons les propriétés d’une mesure définie sur l’ensemble des triangulations de Delaunay planaires comportant n sommets, qui est un modèle de cartes où les arêtes sont décorées par des angles. Nous montrons ainsi que la mesure est égale à la mesure de Weil-Petersson sur l’espace des modules des surfaces de Riemann planaires marquées. Sont aussi montrées deux propriétés de la mesures, premiers pas d'une étude de la limite continue de ce modèle. Dans un deuxième temps, nous définissons des fonctions de corrélations sur les graphes de Strebel planaires isopérimétriques à n faces, qui sont des cartes métriques trivalentes. Les périmètres des faces sont fixés. Nous recourons au théorème de Kontsevich pour calculer les fonctions de corrélations en termes de nombres d’intersection de classes de Chern sur l’espace des modules des surfaces de Riemann. Pour la fonction à une face marquée, la limite des grandes cartes est examinée via l’approximation du point-selle, pour différents régimes du périmètre de la face marquée, et nous déduisons le régime où le comportement de la fonction de corrélation n’est pas trivial. Les fonctions de corrélations peuvent être calculées de manière systématique par la récurrence topologique. Partant, nous calculons la courbe spectrale de notre modèle, ce qui nous permet de montrer qu’il existe une courbe spectrale critique. Nous déduisons de cette courbe critique que la limite continue des graphes de Strebel isopérimétriques est un modèle minimal de type (3,2), habillé par la théorie de Liouville. Cela correspond bien à la gravité pure. Enfin, nous abordons la question des symétries dans le modèle d’Ising sur cartes aléatoires. Certaines fonctions de corrélations de ce modèle comptent le nombre de cartes bicolores avec des faces marquées, les bords, ayant des conditions aux bords mixtes, calculées par récurrence à partir de la courbe spectrale du modèle. Nous prouvons ici que, pour des courbes spectrales génériques, les fonctions de corrélations des cartes à un bord mixte sont symétriques par rotation et par inversion du bord mixte. Nous décrivons ensuite les conséquences de telles symétries, suggérant une possible reformulation du modèle en termes de chaînes de spins. / This thesis explore several aspects of random maps through the study of three models. First, we examine the properties of a measure defined on the set of planar Delaunay triangulations with n vertices, a model in which the edges of the maps are decorated with angles. We show that the measure is the Weil-Petersson volume form on the moduli space of planar Riemann surfaces having n marked points. Two other properties, first steps toward the continuous limit study of the model, are also shown. Second, we define correlation functions on isoperimetric planar Strebel graphs with n faces, which are trivalent maps whose edges are decorated by positive lengths, and whose faces have a fixed perimeter. Kontsevich's theorem allows us to compute the correlation functions in terms of the intersection numbers of Chern classes of moduli space of Riemann surfaces. The continuous limit of the one-point function is computed in different regimes for the perimeter of the marked face via the saddle-point approximation. We identify the regime in which the behaviour of the one-point function is not trivial. The correlation functions can be computed in a systematic way by the Topological Recursion. To do so, we compute the spectral curve of the model, and show that there exists a critical spectral curve. We deduce from the latter that the continuous limit of isoperimetric Strebel graphs is a (3,2) minimal model dressed by Liouville theory: it corresponds to pure gravity. Last, we address the problem of symmetries in the Ising model on random maps. Some correlation functions of this model count the bi-colored maps with marked faces having mixed boundary conditions. They are computed via a recursive formula and the spectral curve of the model. We prove here that the correlation functions of maps with one mixed boundary, computed from the recursive relation with generic spectral curve, are invariant under rotation and inversion of the mixed boundary. We describe the consequences of such symmetries, suggesting a possible reformulation of the model in terms of spin chains.
|
203 |
Contributions géographiques à la définition d'une culture du risque en milieu littoral : le cas des résidents de l'Île d'Oléron (Charente-Maritime, France) / Geographic contributions to the definition of a risk culture in coastal areas : the case of residents of the island of Oléron (Charente-Maritime, France)Chionne, David 15 January 2018 (has links)
Le point de départ de cette thèse a été l'expression de «culture du risque» telle qu'elle a été employée par l'État suite aux événements liés à la tempête Xynthia en 2010. À travers celle-ci, ce dernier rend compte d'un manque de connaissances et de comportements inadaptés, caractérisant les populations vis-à-vis des aléas côtiers. Parallèlement, il affiche sa volonté de favoriser leur sensibilisation vis-à-vis de ces problématiques. Cependant, nous avons constaté qu'un dispositif législatif de communication et de sensibilisation existe depuis les années 1980, mais que son bilan paraît toujours mitigé. De plus, deux visions principales paraissent s'affronter : d'un côté, l'État qui cherche à limiter l'implantation des enjeux dans des zones dites « à risque », de l'autre les populations locales qui demandent à protéger leurs enjeux. Ainsi, la confrontation aux mêmes aléas ne donne pas lieu à des interprétations identiques : différentes cultures du risque existent. Afin de comprendre ces différences, nous tenterons de démontrer l'hypothèse stipulant que les différents discours observés auprès des individus en matière de risques côtiers sont déterminés par leurs rapports au milieu. Il sera donc question de caractériser ces rapports et d'illustrer en quoi ceux-ci sont susceptibles d'affecter leurs discours et leurs comportements à propos des aléas côtiers. Parallèlement, nous tenterons de définir les composantes d'une culture du risque et d'en évaluer le niveau auprès des résidents oléronais. Pour cela, nous nous appuierons sur l'analyse statistique de résultats issus d'une enquête par questionnaire, mais aussi sur l'analyse de cartes mentales. / The starting point of this thesis was the expression "risk culture" as used by the French government following the events related to the storm Xynthia in 2010. Through this, it reports a lack of knowledge and inappropriate behaviours among the populations when faced with coastal hazards. At the same time, it demonstrates its desire to raise public awareness of these issues. However, we have noted that a legislative communication and awareness-raising framework has been in place since the 1980s, but its results are still limited. In addition, two main visions seem to be confronting each other: on the one hand, the State, which seeks to limit the establishment of stakes in so-called "at-risk" areas, and on the other hand, the local inhabitants, who as to protect their stakes. Thus, confronting the same hazards does not lead to identical interpretations: different cultures of risk exist. In order to understand these differences, we will attempt to demonstrate the hypothesis that the different discourses observed among populations regarding coastal risks are determined by their relationship to the environment. The aim is to characterise these relationships and illustrate how they are likely to affect their discourses and behaviours about coastal hazards. At the same time, we will attempt to define the components of a risk culture and assess its level among Oleronian residents. To do this, we will rely on the statistical analysis of results from a questionnaire survey, but also on mental maps.
|
204 |
De la diffusion latérale des récepteurs AMPA à la perception des whiskers : un nouveau modèle de cartographie corticale / From AMPAR lateral diffusion to whisker perception : a new model for cortical remappingCampelo, Tiago 07 October 2019 (has links)
Les champs récepteurs corticaux se réorganisent en réponse aux changements de l'environnement. Par exemple, suite à une lésion périphérique, les modalités sensorielles préservées gagnent de l'espace cortical au détriment de celles lésées. L'étude du cortex somatosensoriel en tonneau des rongeurs a fourni des données importantes pour la compréhension des mécanismes synaptiques à l'origine de cette réorganisation corticale. En condition normale, les neurones de chaque colonne corticale répondent préférentiellement à la stimulation d'une seule vibrisse principale ("Principal Whisker, PW"). Au contraire, suite à l'amputation de l'ensemble des vibrisses sauf une ("Single Whisker Experience, SWE"), les neurones des colonnes associées aux vibrisses amputées répondent à la stimulation de la vibrisse conservée, à l'origine du renforcement et de l'expansion des représentations corticales des vibrisses conservées. Bien que des preuves indirectes aient révélées un rôle de la potentialisation à long terme ("Long-Term Potentiation, LTP") de synapses préexistantes dans la modification des cartes corticales, probablement via une augmentation du nombre des récepteurs AMPA (AMPARs) aux synapses, un lien direct entre la LTP, la réorganisation des cartes corticales, et l'adaptation des comportements sensori-moteurs suite à une altération des entrées sensorielles n'a pas encore été démontré. L'objectif de cette thèse a donc été de mettre en évidence cette relation de façon expérimentale et en condition physiologique. Pour cela, nous avons mis au point une stratégie in vivo combinant des enregistrements électrophysiologiques, de l'imagerie biphotonique et l'analyse du comportement d'exploration chez la souris contrôle ("Full Whisker Experience, FWE) et amputée de certaines vibrisses (SWE). Nous avons d'abord confirmé que la stimulation rythmique de la PW ("Rhytmic Whisker Swtimulation, RWS") renforce les synapses excitatrices (RWS-LTP) in vivo des souris anesthésiées FWE. Au contraire des souris FWE, les neurones pyramidaux des souris SWE présentent une augmentation de l'excitabilité neuronale et une absence de RWS-LTP, indiquant ainsi que les synapses corticales associées à la vibrisse intacte ont été potentialisées en réponse au protocole SWE. Pour mieux comprendre l'implication de la RWS-LTP dans la réorganisation des cartes corticales et l'adaptation des comportements sensori-moteurs, nous avons développé une nouvelle approche pour manipuler la LTP in vivo grâce à l'immobilisation des AMPARs par des anticorps extracellulaires ("cross-linking"). En effet, notre équipe a montré précédemment que le cross-linking des AMPARs empêche la LTP in vitro. Par ailleurs, une accumulation des AMPARs au niveau post-synaptique a été démontrée in vivo par imagerie biphotonique au cours d'une stimulation RWS, suggérant un rôle de la mobilité de ces récepteurs dans cette RWS-LTP. Au cours de cette thèse, nous avons démontré que le cross-linking des AMPARs in vivo bloque également l'expression de la RWS-LTP, mais sans affecter la transmission synaptique basale, ni l'induction de la RWS-LTP, indiquant ainsi que la mobilité des AMPARs est également fondamental pour l'expression de la LTP in vivo. De façon importante, le cross-linking des AMPARs de façon chronique, au cours du SWE, permet non seulement de rétablir la RWS-LTP et l'excitabilité neuronale, et donc de bloquer la réorganisation corticale, mais aussi de modifier les capacités de récupération sensori-motrices des souris amputées. Dans l'ensemble, nos données démontrent pour la première fois un rôle critique et direct de la RWS-LTP dans le réarrangement des circuits en réponse à l'amputation de certaines vibrisses. La réorganisation des cartes corticales serait ainsi assurée par le renforcement de la transmission synaptique, et constituerait alors un mécanisme compensatoire pour optimiser le comportement sensorimoteur de l'animal lors de l'altération des entrées sensorielles. / Neuronal receptive fields in the cerebral cortex change in response to peripheral injury, with active modalities gaining cortical space at the expense of less active ones. Experiments on the mouse whisker-to-barrel cortex system provided important evidences about the synaptic mechanisms driving this cortical remapping. Under normal conditions, neurons in each barrel-column have receptive fields that are strongly tuned towards one principal whisker (PW). However, trimming all the whiskers except one (single-whisker experience, SWE) causes layer (L) 2/3 pyramidal neurons located in the deprived and spared-related columns to increase their response towards the spared input. This results in a strengthening and expansion of the spared whisker representation within the barrel sensory map. Indirect evidences suggest that these cortical alterations might depend on the activity-dependent potentiation of pre-existing excitatory synapses (LTP), likely through increased levels of postsynaptic AMPA receptors (AMPARs). However, a clear link between LTP, cortical remapping, and the adaptation of sensorimotor skills following altered sensory experience has not yet convincingly been demonstrated. Here, we combined in vivo whole-cell recordings, 2-Photon calcium imaging and a whisker-dependent behavior protocol to directly demonstrate this relationship. It has been described that rhythmic whisker stimulation potentiates cortical synapses (RWS-LTP) in vivo. An accumulation of postsynaptic AMPARs during similar sensory stimulation was also reported by imaging evidences. Our data demonstrates that this potentiation is occluded by SWE, suggesting that cortical synapses are already potentiated by this trimming protocol. This is translated into an increased neuronal excitability in the spared column and sensorimotor recovery by the spared whisker. To better understand the implication of LTP in cortical remapping, we developed a novel approach to manipulate LTP in vivo without affecting overall circuit properties. Our team showed previously that the blockage of AMPARs synaptic recruitment by extracellular antibody cross-linking prevents LTP in vitro. Here, we report that in vivo cross-linking of AMPARs blocks the expression but not the induction of RWS-LTP, suggesting that the synaptic recruitment of AMPARs is fundamental for in vivo LTP as well. Moreover, chronic AMPAR cross-linking during SWE reverts RWS-LTP occlusion and the increased neuronal excitability caused by whisker trimming. As consequence, the sensorimotor performance by the spared whisker is permanently impaired by the blockage of cortical remapping. Altogether, these evidences led us to define a critical role for synaptic LTP on circuit re-arrangement after whisker trimming. Our data shows that LTP-driven cortical remapping is a compensatory mechanism to optimize animal’s sensorimotor behavior upon altered sensory experience.
|
205 |
Segmentation invariante en rasance des images sonar latéral par une approche neuronale compétitive / Range-independent segmentation of sidescan sonar images with competitive neural networkNait-Chabane, Ahmed 09 December 2013 (has links)
Un sonar latéral de cartographie enregistre les signaux qui ont été rétrodiffusés par le fond marin sur une large fauchée. Les signaux sont ainsi révélateurs de l’interaction entre l’onde acoustique émise et le fond de la mer pour une large plage de variation de l’angle de rasance. L’analyse des statistiques de ces signaux rétrodiffusés montre une dépendance à ces angles de rasance, ce qui pénalise fortement la segmentation des images en régions homogènes. Pour améliorer cette segmentation, l’approche classique consiste à corriger les artefacts dus à la formation de l’image sonar (géométrie d’acquisition, gains variables, etc.) en considérant un fond marin plat et en estimant des lois physiques (Lambert, Jackson, etc.) ou des modèles empiriques. L’approche choisie dans ce travail propose de diviser l’image sonar en bandes dans le sens de la portée ; la largeur de ces bandes étant suffisamment faible afin que l’analyse statistique de la rétrodiffusion puisse être considérée indépendante de l’angle de rasance. Deux types d’analyse de texture sont utilisés sur chaque bande de l’image. La première technique est basée sur l’estimation d’une matrice des cooccurrences et de différents attributs d’Haralick. Le deuxième type d’analyse est l’estimation d’attributs spectraux. La bande centrale localisée à la moitié de la portée du sonar est segmentée en premier par un réseau de neurones compétitifs basé sur l’algorithme SOFM (Self-Organizing Feature Maps) de Kohonen. Ensuite, la segmentation est réalisée successivement sur les bandes adjacentes, jusqu’aux limites basse et haute de la portée sonar. A partir des connaissances acquises sur la segmentation de cette première bande, le classifieur adapte sa segmentation aux bandes voisines. Cette nouvelle méthode de segmentation est évaluée sur des données réelles acquises par le sonar latéral Klein 5000. Les performances de segmentation de l’algorithme proposé sont comparées avec celles obtenues par des techniques classiques. / The sidescan sonar records the energy of an emitted acoustical wave backscattered by the seabed for a large range of grazing angles. The statistical analysis of the recorded signals points out a dependence according grazing angles, which penalizes the segmentation of the seabed into homogeneous regions. To improve this segmentation, classical approaches consist in compensating artifacts due to the sonar image formation (geometry of acquisition, gains, etc.) considering a flat seabed and using either Lambert’s law or an empirical law estimated from the sonar data. The approach chosen in this study proposes to split the sonar image into stripes in the swath direction; the stripe width being limited so that the statistical analysis of pixel values can be considered as independent of grazing angles. Two types of texture analysis are used for each stripe of the image. The first technique is based on the Grey-Level Co-occurrence Matrix (GLCM) and various Haralick attributes derived from. The second type of analysis is the estimation of spectral attributes. The starting stripe at mid sonar slant range is segmented with an unsupervised competitive neural network based on the adaptation of Self- Organizing Feature Maps (SOFM) algorithm. Then, from the knowledge acquired on the segmentation of this first stripe, the classifier adapts its segmentation to the neighboring stripes, allowing slight changes of statistics from one stripe to the other. The operation is repeated until the beginning and the end of the slant range are reached. The study made in this work is validated on real data acquired by the sidescan sonar Klein 5000. Segmentation performances of the proposed algorithm are compared with those of conventional approaches.
|
206 |
Confluence of quantum K-theory to quantum cohomology for projective spaces / Confluence de la K-théorique quantique vers la cohomologie quantique pour les espaces projectifsRoquefeuil, Alexis 20 September 2019 (has links)
En géométrie algébrique, les invariants de Gromov—Witten sont des invariants énumératifs qui comptent le nombre de courbes complexes dans une variété projective lisse qui vérifient des conditions d’incidence. En 2001, A. Givental et Y.P. Lee ont défini de nouveaux invariants, dits de Gromov—Witten K-théoriques, en remplaçant les définitions cohomologiques dans la construction des invariants de Gromov—Witten par leurs analogues K-théoriques. Une question essentielle est de comprendre comment sont reliées ces deux théories. En 2013, Iritani- Givental-Milanov-Tonita démontrent que les invariants K-théoriques peuvent être encodés dans une fonction qui vérifie des équations aux q-différences. En général, ces équations fonctionnelles vérifient une propriété appelée “confluence”, selon laquelle on peut dégénérer ces équations pour obtenir une équationdifférentielle. Dans cette thèse, on propose de comparer les deux théories de Gromov— Witten à l’aide de la confluence des équations aux q-différences. On montre que, dans le cas des espaces projectifs complexes, que ce principe s’adapte et que les invariants Kthéoriques peuvent être dégénérés pour obtenir leurs analogues cohomologiques. Plus précisément, on montre que la confluence de la petite fonction J de Givental K-théorique permet de retrouver son analogue cohomologique après une transformation par le caractère de Chern. / In algebraic geometry, Gromov— Witten invariants are enumerative invariants that count the number of complex curves in a smooth projective variety satisfying some incidence conditions. In 2001, A. Givental and Y.P. Lee defined new invariants, called Ktheoretical Gromov—Witten invariants. These invariants are obtained by replacing cohomological objects used in the definition of the usual Gromov—Witten invariants by their Ktheoretical analogues. Then, an essential question is to understand how these two theories are related. In 2013, Iritani-Givental- Milanov-Tonita show that K-theoretical Gromov—Witten invariants can be embedded in a function which satisfies a q-difference equation. In general, these functional equations verify a property called “confluence”, which guarantees that we can degenerate these equations to obtain a differential equation. In this thesis, we propose to compare our two Gromov—Witten theories through the confluence of q-difference equations. We show that, in the case of complex projective spaces, this property can be adapted to degenerate Ktheoretical invariants into their cohomological analogues. More precisely, we show that theconfluence of Givental’s small K-theoretical Jfunction produces its cohomological analogue after applying the Chern character.
|
207 |
Sécurité pour les réseaux du futur : gestion sécurisée des identités / Security for future networks : secure identity managementAissaoui Mehrez, Hassane 10 July 2015 (has links)
Aujourd'hui, l'Internet change radicalement nos habitudes, avec l'arrivée massive du nomadisme, l'internet des objets, l'utilisation croissante de l'informatique en grille, les services Web, les réseaux sociaux et l'émergence de nouvelles approches dans ces dernières années. La virtualisation des infrastructures informatiques et le Cloud Computing ont particulièrement, permis de définir des nouveaux paradigmes, appelés X as a Service (XaaS), introduisant ainsi une rupture assez franche avec les modèles traditionnels, qui sont perçus comme une étape préparatoire vers l'Internet du Futur. En effet, la mise en œuvre de ces paradigmes, permet de mutualiser et de réorganiser le système informatique de manière différente, de dématérialiser les infrastructures physiques, de déporter les systèmes ou les applications sur des conteneurs virtuels distants. Par conséquent, l'architecture globale de l'Internet doit évoluer, en s'appuyant fortement sur ces nouvelles approches, en particulier, le Cloud Computing et la virtualisation. Malheureusement, comme toute technologie nouvelle, elle crée de nouveaux risques, qui viennent se greffer aux problèmes traditionnels : la séparation des privilèges, la gestion des accès, la gestion de l'identité, les failles des logiciels de virtualisation, l'isolation des machines virtuelles (VM), la protection des données personnelles, la vie privée, la réversibilité pendant l'externalisation (Outsourcing), etc. Les services basés sur les Clouds requièrent des fonctions de collaboration inter-fonctionnelles sécurisées ainsi que des systèmes de protection contre l'utilisation abusive des ressources. Ces systèmes doivent être équilibrés de façon raisonnable avec les besoins de confidentialité, d’intégrité, de protection de la vie privée des utilisateurs. Ils doivent permettre l’authentification des utilisateurs sans révéler des informations sur leur identité. Ainsi, une offre de services personnalisés aux clients dans un environnement virtuel et/ou transorganisationnel, en utilisant des mécanismes de sécurité adaptés à des infrastructures traditionnelles, peut prendre une dimension très complexe dans le modèle Cloud Computing, et peut constituer des défis à soulever pour les fournisseurs de ces services. Parmi ces défis à résoudre, la gestion d’identités des ressources, qui constitue un élément crucial pour authentifier les services à consommer, minimiser le risque d’accès frauduleux à des données personnelles, qui peut conduire à des conséquences désastreuses pour une entreprise ou un client. Les solutions existantes sont insuffisantes pour répondre aux défis soulevés par ces nouvelles approches. La mise en œuvre de ces modèles et ces outils posent des défis sécuritaires à la fois d’ordre organisationnel, architectural et protocolaire, pour garantir à chaque client des niveaux de sécurité. Ces niveaux doivent être identifiés pour guider les choix architecturaux et techniques à prendre, pour répondre en particulier aux exigences (LoA : Level of Assurance) et (LoT : Level of Trust), qu’un fournisseur de Cloud doit mettre en place pour garantir et protéger ses ressources. En effet, ces verrous et ces défis sécuritaires vont être relevés dans ce travail de recherche qui se situe dans le cadre du projet sécurité pour les réseaux du futur (SecFuNet : Security for Future Networks). C’est un projet collaboratif entre l’Europe et le Brésil, qui implique neuf partenaires européens répartis sur (la France, la Pologne, l'Allemagne et le Portugal) et 7 partenaires académiques brésiliens. Ce projet a pour ambition de proposer une nouvelle infrastructure de sécurité générale pour la communication des informations des utilisateurs sur Internet. L’objectif principal est de concevoir et développer une nouvelle architecture de sécurité cohérente pour les réseaux virtuels. / Today, the Internet is changing radically our habits, especially with the massive influx of the nomadic techniques, the Internet of objects, the growing use of grid computing, wireless networks and the emergence of new approaches in recent years. In particular, the virtualization of the computing infrastructures, which allowed defining a new model called Cloud Computing, introducing an enough frank breakdown with the traditional models, can be perceived as a preparatory stage towards the Internet of future.The implementation of these approaches allows, in a different way : mutualization and organization of the computer system. It allows to dematerialize the physical infrastructures and to deport applications on distant containers. Therefore, the global architecture of Internet should be evolved. It will rely strongly on these new approaches and in particular, Cloud Computing and virtualization. However, no system is infallible especially if resources are distributed and mutualized. They raise a number of problems and involve directly security issues, which remain one of the main barriers to the adoption of these technologies.Like any new technology, Cloud Computing and virtualization create new risks, which come to graft to traditional threats of the outsourcing management of the privilege separation, the identity and accesses management, the robustness of the virtualization software, the virtual machine isolation, the personal data protection, reversibility, privacy... The traditional Internet architecture cannot provide the adequate solutions to the challenges raised by these new approaches: mobility, flexibility, security requirements, reliability and robustness. Thus, a research project (SecFuNet : Security For Future Networks) was validated by the European Commission, to provide some answers, to make a state of the art of these security mechanisms and a comprehensive study of orchestration and integration techniques based on protection components within overall security architecture.
|
208 |
Développements algorithmiques pour l’amélioration des résultats de l’interférométrie RADAR en milieu urbainTlili, Ayoub 10 1900 (has links)
Le suivi des espaces urbanisés et de leurs dynamiques spatio-temporelles représente un enjeu important pour la population urbaine, autant sur le plan environnemental, économique et social. Avec le lancement des satellites portant des radars à synthèse d’ouverture de la nouvelle génération (TerraSAR-X, COSMO-SkyMed, ALOS, RADARSAT-2,Sentinel-1, Constellation RADARSAT), il est possible d’obtenir des séries temporelles d’images avec des résolutions spatiales et temporelles fines. Ces données multitemporelles aident à mieux analyser et décrire les structures urbaines et leurs variations dans l’espace et dans le temps. L’interférométrie par satellite est effectuée en comparant les phases des images RSO prises à différents passages du satellite au-dessus du même territoire. En optant pour des positions du satellite séparées d’une longue ligne de base, l’InSAR mène à la création des modèles numériques d’altitude (MNA). Si cette ligne de base est courte et à la limite nulle, nous avons le cas de l’interférométrie différentielle (DInSAR) qui mène à l’estimation du mouvement possible du terrain entre les deux acquisitions. Pour toutes les deux applications de l’InSAR, deux opérations sont importantes qui garantissent la génération des interférogrammes de qualité. La première est le filtrage du bruit omniprésent dans les phases interférométriques et la deuxième est le déroulement des phases. Ces deux opérations deviennent particulièrement complexes en milieu urbain où au bruit des phases s’ajoutent des fréquents sauts et discontinuités des phases dus à la présence des bâtiments et d’autres structures surélevées. L’objectif de cette recherche est le développement des nouveaux algorithmes de filtrage et de déroulement de phase qui puissent mieux performer que les algorithmes considérés comme référence dans ce domaine. Le but est d’arriver à générer des produits InSAR de qualité en milieu urbain. Concernant le filtrage, nous avons établi un algorithme qui est une nouvelle formulation du filtre Gaussien anisotrope adaptatif. Quant à l’algorithme de déroulement de phase, il est fondé sur la minimisation de l’énergie par un algorithme génétique ayant recours à une modélisation contextuelle du champ de phase. Différents tests ont été effectués avec des images RSO simulées et réelles qui démontrent le potentiel de nos algorithmes qui dépasse à maints égards celui des algorithmes standard. Enfin, pour atteindre le but de notre recherche, nous avons intégré nos algorithmes dans l’environnement du logiciel SNAP et appliqué l’ensemble de la procédure pour générer un MNA avec des images RADARSAT-2 de haute résolution d’un secteur de la Ville de Montréal (Canada) ainsi que des cartes des mouvements du terrain dans la région de la Ville de Mexico (Mexique) avec des images de Sentinel-1 de résolution plutôt moyenne. La comparaison des résultats obtenus avec des données provenant des sources externes de qualité a aussi démontré le fort potentiel de nos algorithmes. / The monitoring of urban areas and their spatiotemporal dynamics is an important issue for the urban population, at the environmental, economic, as well as social level. With the launch of satellites carrying next-generation synthetic aperture radars (TerraSAR-X, COSMO-SkyMed, ALOS, RADARSAT-2, Sentinel-1, Constellation RADARSAT), it is possible to obtain time series of images with fine temporal and spatial resolutions. These multitemporal data help to better analyze and describe urban structures, and their variations in space and time. Satellite interferometry is performed by comparing the phases of SAR images taken at different satellite passes over the same territory. By opt-ing for satellite positions separated by a long baseline, InSAR leads to the creation of digital elevation models (DEM). If this baseline is short and, at the limit zero, we have the case of differential interferometry (DInSAR) which leads to the estimation of the possible movement of the land between the two acquisitions. In both InSAR applica-tions, two operations are important that ensure the generation of quality interferograms. The first is the filtering of ubiquitous noise in the interferometric phases and the second is the unwrapping of the phases. These two operations become particularly complex in urban areas where the phase noise is added to the frequent jumps and discontinuities of phases due to the presence of buildings and other raised structures.
The objective of this research is the development of new filtering and phase unwrap-ping algorithms that can perform better than algorithms considered as reference in this field. The goal is to generate quality InSAR products in urban areas. Regarding filtering, we have established an algorithm that is a new formulation of the adaptive anisotropic Gaussian filter. As for the phase unwrapping algorithm, it is based on the minimization of energy by a genetic algorithm using contextual modelling of the phase field. Various tests have been carried out with simulated and real SAR images that demonstrated the potential of our algorithms that in many respects exceeds that of standard algorithms. Finally, to achieve the goal of our research, we integrated our algorithms into the SNAP software environment and applied the entire procedure to generate a DEM with high-resolution RADARSAT-2 images from an area of the City of Montreal (Canada) as well as maps of land movement in the Mexico City region (Mexico) with relatively medium-resolution Sentinel-1 images. Comparison of the results with data from external quality sources also demonstrated the strong potential of our algorithms.
|
209 |
Cartographie et analyse spatiale des critères d'établissement des valeurs résidentielles en milieu urbain à partir d'un S.I.G. : le cas de BeauportLoukili, Abdelmoutalib 12 December 2018 (has links)
Cette recherche a pour but d'illustrer le potentiel de la carte comme moyen de représentation et comme moyen d’analyse spatiale des valeurs résidentielles en milieu urbain. On a utilisé les données du modèle "RESIVALU", modèle hédonique d’évaluation résidentielle pour la ville de Beauport, avec des données de 1986-87, afin de monter un SIG permettant d'effectuer des opérations de gestion et d'interrogation de la base de données à référence spatiale. Le SIG présente surtout plusieurs possibilités de représentation cartographique selon diverses méthodes, à différents niveaux de détail spatial. Dans cette analyse cartographique l'accent est mis sur la répartition des résidus (différence entre le prix de vente réel des résidences et le prix théorique calculé par le modèle), celle-ci pouvant révéler plusieurs informations concernant l'adéquation spatiale du modèle "RESIVALU" et faciliter la recherche de nouvelles variables à introduire dans l'équation de régression dans le but d'augmenter l'efficacité du modèle. / Québec Université Laval, Bibliothèque 2018
|
210 |
Validation du Tri-de-cartes des comportements maternels chez une population de pèresBoisclair, Annick 23 February 2021 (has links)
Les chercheurs ont développé plusieurs instruments afin de mesurer les interactions mère-enfant avec un certain succès, l'utilisation d'échelles étant plus efficace que la codification de comportements. Par contre, peu d'études se sont attardées à développer un instrument adapté aux pères. L'objectif de cette recherche est donc de valider le Tri-de-cartes des Comportements Maternels auprès de pères. La consultation d'experts permet d'obtenir des normes spécifiques pour les pères. Selon les juges, les énoncés du Tri-de-cartes des Comportements Maternels sont adéquats pour évaluer la sensibilité paternelle. Dans un deuxième temps, des visites à domicile sont effectuées afin d'établir la fidélité et la validité de l'instrument. Le Tri-de-cartes de Comportements Paternels possède une excellente fiabilité inter-juges et une stabilité test-retest modérée. Certaines limites sont soulignées et discutées quant à la validité convergente de l'instrument avec des questionnaires.
|
Page generated in 0.0565 seconds