• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 19
  • 17
  • 1
  • Tagged with
  • 80
  • 80
  • 70
  • 67
  • 65
  • 45
  • 43
  • 43
  • 25
  • 21
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Recalage et analyse d'un couple d'images : application aux mammographies

Boucher, Arnaud 10 January 2013 (has links) (PDF)
Dans le monde de la recherche, l'analyse du signal et plus particulièrement d'image, est un domaine très actif, de par la variété des applications existantes, avec des problématiques telles que la compression de données, la vidéo-surveillance ou encore l'analyse d'images médicales pour ne prendre que quelques exemples. Le mémoire s'inscrit dans ce dernier domaine particulièrement actif. Le nombre d'appareils d'acquisition existant ainsi que le nombre de clichés réalisés, entraînent la production d'une masse importante d'informations à traiter par les praticiens. Ces derniers peuvent aujourd'hui être assistés par l'outil informatique. Dans cette thèse, l'objectif est l'élaboration d'un système d'aide au diagnostic, fondé sur l'analyse conjointe, et donc la comparaison d'images médicales. Notre approche permet de détecter des évolutions, ou des tissus aberrants dans un ensemble donné, plutôt que de tenter de caractériser, avec un très fort a priori, le type de tissu cherché.Cette problématique permet d'appréhender un aspect de l'analyse du dossier médical d'un patient effectuée par les experts qui est l'étude d'un dossier à travers le suivi des évolutions. Cette tâche n'est pas aisée à automatiser. L'œil humain effectue quasi-automatiquement des traitements qu'il faut reproduire. Avant de comparer des régions présentes sur deux images, il faut déterminer où se situent ces zones dans les clichés. Toute comparaison automatisée de signaux nécessite une phase de recalage, un alignement des composantes présentes sur les clichés afin qu'elles occupent la même position sur les deux images. Cette opération ne permet pas, dans le cadre d'images médicales, d'obtenir un alignement parfait des tissus en tous points, elle ne peut que minimiser les écarts entre tissus. La projection d'une réalité 3D sur une image 2D entraîne des différences liées à l'orientation de la prise de vue, et ne permet pas d'analyser une paire de clichés par une simple différence entre images. Différentes structurations des clichés ainsi que différents champs de déformation sont ici élaborés afin de recaler les images de manière efficace.Après avoir minimisé les différences entre les positions sur les clichés, l'analyse de l'évolution des tissus n'est pas menée au niveau des pixels, mais à celui des tissus eux-mêmes, comme le ferait un praticien. Afin de traiter les clichés en suivant cette logique, les images numériques sont réinterprétées, non plus en pixels de différentes luminosités, mais en motifs représentatifs de l'ensemble de l'image, permettant une nouvelle décomposition des clichés, une décomposition parcimonieuse. L'atout d'une telle représentation est qu'elle permet de mettre en lumière un autre aspect du signal, et d'analyser sous un angle nouveau, les informations nécessaires à l'aide au diagnostic.Cette thèse a été effectuée au sein du laboratoire LIPADE de l'Université Paris Descartes (équipe SIP, spécialisée en analyse d'images) en collaboration avec la Société Fenics (concepteur de stations d'aide au diagnostic pour l'analyse de mammographies) dans le cadre d'un contrat Cifre.
12

Assessing the Global Cyber and Biological Threat

Mezzour, Ghita 01 April 2015 (has links)
In today’s inter-connected world, threats from anywhere in the world can have serious global repercussions. In particular, two types of threats have a global impact: 1) cyber crime and 2) cyber and biological weapons. If a country’s environment is conducive to cyber criminal activities, cyber criminals will use that country as a basis to attack end-users around the world. Cyber weapons and biological weapons can now allow a small actor to inflict major damage on a major military power. If cyber and biological weapons are used in combination, the damage can be amplified significantly. Given that the cyber and biological threat is global, it is important to identify countries that pose the greatest threat and design action plans to reduce the threat from these countries. However, prior work on cyber crime lacks empirical substantiation for reasons why some countries’ environments are conducive to cyber crime. Prior work on cyber and biological weapon capabilities mainly consists of case studies which only focus on select countries and thus are not generalizeable. To sum up, assessing the global cyber and biological threat currently lacks a systematic empirical approach. In this thesis, I take an empirical and systematic approach towards assessing the global cyber and biological threat. The first part of the thesis focuses on cyber crime. I examine international variation in cyber crime infrastructure hosting and cyber crime exposure. I also empirically test hypotheses about factors behind such variation. In that work, I use Symantec’s telemetry data, collected from 10 million Symantec customer computers worldwide and accessed through the Symantec’s Worldwide Intelligence Network Environment (WINE). I find that addressing corruption in Eastern Europe or computer piracy in Sub-Saharan Africa has the potential to reduce the global cyber crime. The second part of the thesis focuses on cyber and biological weapon capabilities. I develop two computational methodologies: one to assess countries’ biological capabilities and one to assess countries’ cyber capabilities. The methodologies examine all countries in the world and can be used by non-experts that only have access to publicly available data. I validate the biological weapon assessment methodology by comparing the methodology’s assessment to historical data. This work has the potential to proactively reduce the global cyber and biological weapon threat.
13

Filtrage, segmentation et suivi d'images échographiques : applications cliniques

Dahdouh, Sonia 23 September 2011 (has links) (PDF)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d'échec de celle-ci, l'intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l'intervention.L'imagerie échographique est largement plébiscitée en raison de son faible coût, de l'innocuité del'examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl'opérateur.L'objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu'une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd'améliorer les conditions d'exécution d'interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del'image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d'ondelettes aux différentes échelles à partir d'un algorithme de typesplit and merge appliqué avant reconstruction de l'image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l'image suivante de la séquence. L'image est transformée pourne plus être qu'un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l'image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l'image courante sur l'image des vignettes segmentée. L'utilisation d'informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l'état de l'art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d'exécution sans optimisation, inférieur à la minute pour des images 512*512.
14

An organizational ontology for multiagent-based Enterprise Process modeling and automation

Lin, Yishuai 10 September 2013 (has links) (PDF)
The work presented in this PhD thesis defines a new approach for the modeling and the conceptualization of enterprise business processes in the perspective of building intelligent assistance software tools to support these processes. The proposed approach defines an organizational ontology, named K-CRIO. Its description is based on the Ontology Web Language. To illustrate our work, an intelligent assistance system has been designed and implemented according to the result from the modeling and conceptualization of a specific business process with the K-CRIO Ontology. It is a web-based application that integrates and takes full advantage of multi-agent systems.The K-CRIO Ontology is an Ontology dedicated to the study of organizations and the analysis of business processes adopting an organizational point of view. Specifically, it is used to understand, analyze and reason about organizations and the processes they implement. The targeted organizations are those composed of entities involved throughout products' design and, to do so, following a defined business process. The range of this type of organizations is quite wide. We have thus limited our study to organizations that produce software as the final process goal, specifically IT enterprises delivering software products or services. In this context, the K-CRIO ontology could be used to model structure of the considered organizations and model human activities appearing in their business processes. This ontology could be used to support process assistance within the described organizations. More specifically, the ontology could provide means for reasoning, annotating resources, monitoring design processes, enabling searches and pro-actively proposing tips and proper content. In order to illustrate the usage of K-CRIO, we apply K-CRIO on two different processes: the Waterfall Model and the Scrum methodology. These examples are both classical software-development processes. Moreover, for Scrum, the famous agile software-development process widely used in software enterprises, we have designed and developed an intelligent assistance tool. This tool mainly helps Scrum Masters to make decision by monitoring Scrum project teams' activities within their various projects and collecting knowledge about these activities.
15

algorithmes de clustérisation et routage dans les réseaux Ad Hoc

Guizani, Badreddine 04 April 2012 (has links) (PDF)
Le passage à l'échelle des protocoles de routage est un des problèmes les plus critiques pour les réseauxmobiles sans fil à grande envergure. Dans ce cadre, le concept de clusterisation peut être mis à profit dans lafonction de routage afin d'améliorer les performances de ces réseaux. En premier lieu, cette thèse présentenotre algorithme de clusterisation à 1-saut alpha-SSCA (α-Stability Structure Clustering Algorithm) qui apour objectif d'améliorer la stabilité de la structure des clusters. Un algorithme générique de clusterisationà K-sauts est également proposé en ayant le même but de stabilité visé par alpha-SSCA tout en réduisant lenombre de clusters générés et en étant indépendant de la métrique d'élection des cluster-heads. Ensuite, nousprésentons notre proposition d'un protocole de routage à état des liens des clusters qui exploite les apports denotre mécanisme de clusterisation α-SSCA. Ce protocole, appelé CLSR (Cluster-based Link State Routing),vise à réduire le trafic de contrôle afin d'améliorer les performances du réseau à large échelle. Nous avonsproposé aussi une version hiérarchique du protocole CLSR. Ce protocole de routage introduit une hiérarchiedans la structure des clusters qui permet de réduire le nombre de clusters en groupement des clusters prochesdans un même cluster. L'objectif principal de ce protocole hiérarchique est d'améliorer la scalabilité de CLSRquand le nombre de noeuds dans le réseau augmente considérablement.
16

Approche par invariance positive et les techniques de l'intelligence artificielle pour la régulation des carrefours signalisés

Motawej, Fadi 30 May 2012 (has links) (PDF)
La régulation du trafic dans un carrefour à feux concerne en général deux objectifs distincts: la fluidification ou la résorption de congestion. Dans le premier cas, on évite de se retrouver dans une situation de trafic très dense en essayant d'ajuster les durées de commutations des feux en fonction de la demande d'affluence au carrefour: c'est une action a priori. Dans le second cas, on est confronté à un trafic saturé (état de congestion). Dans ce cas, il faudra agir a posteriori.Dans ce travail, nous nous intéressons essentiellement à un travail en amont (action a priori) permettant d'éviter la congestion en forçant les files d'attente à ne pas dépasser le niveau du trafic correspondant à l'optimum opérationnel des lignes. Plus précisément, après avoir modélisé le système, nous proposons une commande par retour d'état basée sur le concept d'invariance positive des ensembles et permettant d'atteindre l'objectif. Deux approches sont utilisées: La première fait appel aux inégalités matricielles Linéaires (LMI). La deuxième approche utilise le concept de la (A-B)-invariance issu de la généralisation du théorème de Farkas. Ensuite, nous enrichissons ces deux approches par la technique des réseaux de neurones pour estimer les flux d'entrée au carrefour afin de garantir la faisabilité en temps réel de la commande proposée. Enfin, les résultats de ces travaux sont appliqués sur un carrefour réel du boulevard Anatole France afin de montrer leur intérêt.
17

New Precoding and Equalization Techniques for Multicarrier Systems

Sens Chang, Bruno 24 September 2012 (has links) (PDF)
In this thesis, new precoding and equalization techniques for multicarrier systems were proposed and analyzed.First, the error performance of precoded filterbank multicarrier (FBMC) systems was analyzed. It was found out that this performance is highly sensitive to complete subchannel equalization. When there is residual intersymbol interference (ISI) stemming from imperfect subchannel equalization there is a loss of diversity; this loss can be prevented with the adoption of a number of subchannels large enough so that each subchannel suffers flat fading or with the utilization of a subchannel equalizer with sufficient length to compensate the subchannel frequency response.After that, an approximation for the signal to interference-plus-noise ratio (SINR) distribution of SC-FDE systems using linear MMSE equalization was proposed. This approximation uses the lognormal distribution with the smallest Kullback-Leibler distance to the true distribution, and was shown to be precise in the error performance sense; it serves as a system abstraction. With this abstraction, a precise method to obtain the analytical coded error performance of these systems was proposed.Finally, widely linear Tomlinson-Harashima precoders and equalizers (linear and decision-feedback) for SC-FDE systems were proposed. These precoders and equalizers have better error performance when compared to their strictly linear versions if signals coming from an improper constellation are transmitted. Their error performance when decision-feedback equalizers are used is less sensitive to the length of the feedback filter. When widely linear precoders are used, this error performance becomes less sensitive to channel estimation errors.
18

Problèmes NP-difficiles : approximation modérément exponentielle et complexité paramétrique

Tourniaire, Emeric 17 June 2013 (has links) (PDF)
Nous détaillons dans cette thèse des algorithmes modérément exponentiels pour l'approximation du problème MAX SAT. Nous discutons d'une méthode générique pour la conception d'algorithmes exponentiels réalisant des schémas d'approximation dans un cadre plus général. Enfin, nous présentons des résultats paramétrés pour des problèmes de coupe à cardinalité contrainte.
19

The Subjective Response of People Living with HIV to Illness Narratives in VR

Hamza, Sabeeha 01 January 2005 (has links)
This dissertation reports on the results on an exploratory investigation into the potential efficacy of VR as both a support mechanism to people living with HIV/AIDS, as well its capabilities as an emotive medium. Two hypothesis were presented viz. (1) VR will be a form of social support and (2) VR will have an emotional impact on participants. The research builds up on findings which demonstrate the therapeutic effectiveness of telling personal and collective narratives in an HIV/AIDS support group. This fact, together with the tested ability of VR as a therapeutic medium, let to the development of a virtual support group with an aim to test its therapeutic efficacy. A low cost, deployable desktop PC based system using custom software was developed. The system implemented a VR walkthrough experience of a tranquil campfire in a forest. The scene contained four interactive avatars who related narratives compiled from HIV/AIDS patients. These narratives covered the aspects of receiving an HIV+ diagnosis, intervention, and coping with living with HIV+ status. To evaluate the system, seven computer semi-literate HIV+ volunteers from townships around Cape Town used the system under the supervision of a clinical psychologist. The participants were interviewed about their experiences with their system, and the data was analyzed qualitatively using grounded theory. The group experiment showed extensive qualitative support for the potential efficacy of the VR system as both a support mechanism and an emotive medium. The comments received by the participants suggested that the VR medium would be effective as a source of social support, and could augment real counselling sessions, rather than replace them. The categories which emerged from the analysis of the interview data were emotional impact, emotional support, informational support, technology considerations, comparison with other forms of support, timing considerations and emotional presence. The categories can be grouped according to the research questions viz. + The efficacy of VR as an emotive medium (Presence, Emotional Impact, Computer Considerations) + The efficacy of the VR simulation as a source of social support (Emotional and Informational Support) Other themes not anticipated by the data included the following: Timing considerations and Comparison with other forms of counselling. The interviews suggested that both hypothesis 1 and 2 are correct viz. that the VR system provided a source of social support, and has an emotional impact on the participants.
20

Services de répartition de charge pour le Cloud : application au traitement de données multimédia.

Lefebvre, Sylvain 10 December 2013 (has links) (PDF)
Le travail de recherche mené dans cette thèse consiste à développer de nouveaux algorithmes de répartition de charge pour les systèmes de traitement de données massives. Le premier algorithme mis au point, nommé "WACA" (Workload and Cache Aware Algorithm) améliore le temps d'exécution des traitements en se basant sur des résumés de contenus. Le second algorithme, appelé "CAWA" (Cost Aware Algorithm) tire partie de l'information de coût disponible dans les plateformes de type "Cloud Computing" en étudiant l'historique d'exécution des services.L'évaluation de ces algorithmes a nécessité le développement d'un simulateur d'infrastructures de "Cloud" nommé Simizer, afin de permettre leur test avant le déploiement en conditions réelles. Ce déploiement peut se faire de manière transparente grâce au système de distribution et de surveillance de service web nommé "Cloudizer", développé aussi dans le cadre de cette thèse. Ces travaux s'inscrivent dans le cadredu projet de plateforme de traitement de données Multimédia for Machine to Machine (MCUBE), dans le lequel le canevas Cloudizer est mis en oeuvre.

Page generated in 0.0683 seconds