• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2453
  • 1628
  • 1257
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5669
  • 3146
  • 3008
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 628
  • 598
  • 486
  • 477
  • 457
  • 455
  • 443
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Algorithmes de compression d'images hyperspectrales astrophysiques

Vohl, Dany 09 1900 (has links) (PDF)
SpIOMM, le Spectromètre imageur à transformée de Fourier de l’Observatoire du Mont-Mégantic génère des fichiers de taille imposante, de l’ordre de 700 Mo et SITELLE, son successeur génèrera des fichiers de l’ordre du Go. Puisque plusieurs fichiers peuvent être générés durant une nuit d’observation et que les astronomes ne sont pas toujours sur place pour effectuer leurs observations, ces fichiers apportent à la fois des besoins de stockage et de transfert de données. Afin de minimiser l’espace nécessaire à son stockage et de minimiser la bande passante et le temps de transfert nécessaire pour obtenir le fichier à distance, trois techniques de compression sont abordées. Les deux premières sont des techniques de compression sans perte et la troisième en est une avec perte. Les deux premières permettent d’obtenir de meilleurs taux de compression que les algorithmes génériques que sont zip et gzip2, avec des taux de compression de l’ordre de 1; 19 : 1 à 1; 22 : 1. La troisième permet des taux de compression allant jusqu’à un ratio de 64 : 1. Les effets des perte sont étudiés pour évaluer l’effet de la compression sur les mesures de photométrie et les analyses basées sur les spectres. / SpIOMM, the Imaging Fourier Transform Spectrometer of the Observatoire du Mont-Mégantic generates huge files of about 700 MB per file on average, and SITELLE, its successor will generate files of a few GB. Since several files can be generated during an observation night and the astronomers are not always on-site, there is an increasing need for both storage and transmission. To minimize storage space, bandwidth use and transmission time, three data compression techniques are presented. The first two techniques are lossless data compression and the third one is lossy. The lossless techniques give better results than generic techniques that are zip and gzip2, with compression ratios varying from 1:19 : 1 to 1:22 : 1. The lossy technique compresses files up to a 64 : 1 ratio. The effect of the lossy process on the photometric measurements and the spectra analysis is also studied.
62

Géosimulation multi-niveau de phénomènes complexes basés sur les multiples interactions spatio-temporelles de nombreux acteurs : développement d'un outil générique d'aide à la décision pour la propagation des zoonoses

Bouden, Mondher 09 1900 (has links) (PDF)
Nous proposons dans cette thèse une nouvelle approche de géosimulation multi-niveau permettant de simuler la propagation d’une zoonose (maladie infectieuse qui se transmet des animaux aux humains) à différents niveaux de granularité. Cette approche est caractérisée entre autres par l’utilisation d’un modèle théorique original que nous avons nommé MASTIM (Multi-Actor Spatio-Temporal Interaction Model) permettant de simuler des populations contenant un nombre considérable d’individus en utilisant des modèles compartimentaux enrichis. MASTIM permet de spécifier non seulement l’évolution de ces populations, mais également les aspects relatifs aux interactions spatio-temporelles de ces populations incluant leurs déplacements dans l’environnement de simulation géoréférencé. Notre approche de géosimulation multi-niveau est caractérisée également par l’utilisation d’un environnement géographique virtuel informé (IVGE) qui est composé d’un ensemble de cellules élémentaires dans lesquelles les transitions des différents stades biologiques des populations concernées, ainsi que leurs interactions peuvent être plausiblement simulées. Par ailleurs, nous avons appliqué nos travaux de recherche au développement d’outils d’aide à la décision. Nous avons acquis une première expérience avec le développement d’un outil (WNV-MAGS) dont l’objectif principal est de simuler les comportements des populations de moustiques (Culex) et des oiseaux (corneilles) qui sont impliquées dans la propagation du Virus du Nil Occidental (VNO). Nous avons par la suite participé au développement d’un outil générique (Zoonosis-MAGS) qui peut être utilisé pour simuler la propagation d'une variété de zoonoses telles que la maladie de Lyme et le VNO. Ces outils pourraient fournir des informations utiles aux décideurs de la santé publique et les aider à prendre des décisions informées. En outre, nous pensons que nos travaux de recherche peuvent être appliqués non seulement au phénomène de la propagation des zoonoses, mais également à d’autres phénomènes faisant intervenir des interactions spatio-temporelles entre différents acteurs de plusieurs types. / We propose in this thesis a new multi-level geosimulation approach to simulate the spread of a zoonosis (infectious disease transmitted from animals to humans) at different levels of granularity. This approach is characterized by using an original theoretical model named MASTIM (Multi-Actor Spatio-Temporal Interaction Model) which can be applied to simulate populations containing a huge number of individuals using extended compartmental models. MASTIM may specify not only the evolution of these populations, but also the aspects related to their spatio-temporal interactions, including their movements in the simulated georeferenced environment. Our multi-level geosimulation approach take advantage of an informed virtual geographic environment (IVGE) composed of a set of elementary cells in which the transitions of the different biological stages of the involved populations, as well as their interactions can be simulated plausibly. Furthermore, this approach has been applied to develop decision support tools. We got a first experience with the development of WNV-MAGS, a tool whose main purpose is to simulate the populations’ behavior of mosquitoes (Culex) and birds (crows), which are involved in the spread of West Nile Virus (WNV). We subsequently participated in the development of a generic tool (Zoonosis-MAGS) that can be used to simulate the spread of a variety of zoonoses such as Lyme disease and WNV. These tools may provide useful information to help public health officers to make informed decisions. Besides, we believe that this research can be applied not only to the spread of zoonoses, but also to other phenomena involving spatio-temporal interactions between different actors of different types.
63

Apprentissage d'une politique de gestion de ressources en temps réel : Application au combat maritime

Cinq-Mars, Patrick 02 1900 (has links) (PDF)
No description available.
64

Nouveaux algorithmes d'apprentissage pour classificateurs de type SCM

Choquette, Philippe 10 1900 (has links) (PDF)
Dans le cadre de l'apprentissage automatique supervisé, un des outils disponibles pour la classification binaire est la Set Covering Machine (SCM). Rapidement construite et en général très performante, elle n'est cependant pas systématiquement infaillible. Il existe encore, à ce jour, une marge pour une amélioration. Ce mémoire présente deux nouvelles façons de construire des SCM. Ces algorithmes sont décrits, expliqués et leur performance est analysée. La première façon est de minimiser une approximation d'une borne sur le risque à l'aide d'un branch-and-bound. La deuxième est d'utiliser le bagging. Lors des tests, les nouveaux classificateurs se sont montrés aussi performants que les SCM originales. Nous avons découvert que celles-ci sont soit déjà optimales au sens du critère utilisé pour le branch-and-bound, soit aussi performantes que les SCM optimales. / In the supervised machine learning field, one of the available tools for binary classification is the Set Covering Machine (SCM). Quickly built and generally having high performance, it's however not proven that they always give optimal results. There is still, to date, a margin for improvement. This study presents two new ways of building SCM. Theses algorithms are described, explained and their performance is analyzed. The first way is to minimize an approximated bound on the risk with a branch-and-bound. The second is using bagging. The new classifiers had the same test-set performance than the original SCM. We discovered that the latter are either already optimal according to the branch-and-bound criterion or having the same performance as the optimal SCM.
65

Selective Sampling for Classification

Shanian, Sara 10 1900 (has links) (PDF)
Une des objectifs poursuivis par la recherche en apprentissage automatique est la construction de bons classificateurs à partir d'un ensemble d'exemples étiquetés. Certains problèmes nécessitent de réunir un grand ensemble d'exemples étiquetés, ce qui peut s'avérer long et coûteux. Afin de réduire ces efforts, il est possible d'utiliser les algorithmes d'apprentissage actif. Ces algorithmes tirent profit de la possibilité de faire quelques demandes d'étiquetage parmi un grand ensemble d'exemples non-étiquetés pour construire un classificateur précis. Il est cependant important de préciser que les algorithmes d'apprentissage actif actuels possèdent eux-mêmes quelques points faibles connus qui peuvent les mener à performer inadéquatement dans certaines situations. Dans cette thèse, nous proposons un nouvel algorithme d'apprentissage actif. Notre algorithme atténue certains points faibles des précédents algorithmes d'apprentissage actif, et il se révèle trés compétitif aux algorithmes d'apprentissage actif bien-connus. De plus, notre algorithme est facile à implémenter. / One of the goals of machine learning researches is to build accurate classifiers form an amount of labeled examples. In some problems, it is necessary to gather a large set of labeled examples which can be costly and time-consuming. To reduce these expenses, one can use active learning algorithms. These algorithms benefit from the possibility of performing a small number of label-queries from a large set of unlabeled examples to build an accurate classifier. It should be mentioned that actual active learning algorithms, themselves, have some known weak points which may lead them to perform unsuccessfully in certain situations. In this thesis, we propose a novel active learning algorithm. Our proposed algorithm not only fades the weak points of the previous active learning algorithms, but also performs competitively among the widely known active learning algorithms while it is easy to implement.
66

Modélisaton et sécurité des réseaux

Cormier, Alexandre 12 1900 (has links) (PDF)
L’avènement d’Internet révolutionne l’accès à l’information, mais contribue également à l’essor de nouveaux services, notamment le commerce électronique, à l’allègement de la bureaucratie et à l’arrivée d’une multitude de e-services. Or, le développement de cette technologie de l’information s’est accompagné d’une panoplie de problématiques. Parmi celles-ci, les plus inquiétantes ont trait à la sécurité puisqu’elles mettent en péril le bon fonctionnement de ces services. Le présent mémoire approfondit ces problématiques de sécurité selon une approche formelle : les algèbres de processus. Dans un premier temps, le fruit de la recherche sur les failles de sécurité réseau de niveau deux et trois de la couche TCP/IP et d’une étude comparative de l’expressivité des principales algèbres de processus est présenté. Dans un second temps, les caractéristiques souhaitées d’une algèbre de modélisation de réseau sont mises en exergue et sont intégrées dans la syntaxe et la sémantique d’une nouvelle algèbre. Finalement, une nouvelle algèbre de processus pour la modélisation de réseau, Netcal, ainsi que les principes d’un système de détection de failles d’architecture et de configuration de réseau sont explicités.
67

Modélisation multi-échelle d'environnements urbains peuplés. Application aux simulations multi-agents des déplacements multimodaux

Chaker, Walid 08 1900 (has links) (PDF)
No description available.
68

Analyse de la similarité du code source pour la réutilisation automatique de tests unitaires à l'aide du CBR

Zhang, Xu 10 1900 (has links) (PDF)
Réutiliser les tests unitaires automatiquement est une solution pour faciliter le travail de certains développeurs. Dans notre recherche, nous proposons une ébauche de solution en utilisant le raisonnement à base de cas (Case Based reasoning - CBR) issu du domaine de l’intelligence artificielle. Cette technique tente de trouver le cas le plus similaire dans une base de cas pour ensuite, après modifications, le réutiliser pour résoudre un nouveau problème. Nos travaux de recherche se concentrent sur l’analyse de la similarité du code dans l’optique de réutiliser des tests unitaires. Nous porterons donc une attention particulière à l’élaboration d’une technique de comparaison des classes adaptées au contexte des tests. Plus précisément, dans ce mémoire, nous aborderons les questions suivantes: 1. Trouver la classe la plus similaire dans le but de réutiliser ses tests unitaires (travaux principaux); 2. Trouver les méthodes similaires entre les deux classes similaires; 3. Chercher les tests réutilisables en fonction de la similarité des méthodes de ces deux classes. Pour ce faire, nous mènerons des expérimentations afin de trouver les meilleures attributs (caractéristiques) permettant de comparer deux classes. Ces attributs doivent être choisis en considérant le contexte particulier des tests qui ne sont pas les mêmes que pour, par exemple, détecter du code dupliqué. Cette recherche nous permet de proposer un premier algorithme d’analyse de la similarité des classes qui fonctionne assez bien dans le contexte de notre expérimentation. Nous avons également étendu le processus à la sélection et la réutilisation de tests à l’aide d’une technique simple permettant de vérifier que l’algorithme d’analyse de similarité des classes peut potentiellement fonctionner et s’intégrer à un processus complet. Nos travaux montrent qu’il est possible de réutiliser des tests unitaires, bien que l’algorithme reste à être améliorer. Nous proposons d’ailleurs plusieurs pistes à ce sujet. / Automatically reusing unit tests is a possible solution to help developers with their daily work. Our research proposes preliminary solutions using case base reasoning (CBR), an approach coming from artificial intelligence. This technique try to find the most similar case in a case base to reuse it after some modifications against some new problems to solve. Our works focus on the similarity analysis of a program code with the goal of reusing unit tests. Our main focus will be on the elaboration of a technique to compare classes in the test context. To be more precise, in the thesis, we will discuss: 1. How to find the most similar class for which it will be possible to reuse its tests (main focus); 2. How to find similar methods between the new class and the most similar one; 3. Find which test could be reused considering the similarity of the methods. To achieve this, we will run some experiments to find the bests attributes (characteristics) to compare two classes. Those attributes must be chosen considering the specific context of testing. For example, those characteristics are not the same as for finding duplicated code. This research propose an algorithm to analyze the similarity of classes. Our experiment shows that this algorithm works quite well in the context of the experiment. We also extended the experiment to see if it could possibly work within the whole process of selection and reuse of unit tests. We did this by using some simple techniques that could certainly be refined. In fact, our works demonstrate that it is possible to reuse unit tests despite the fact that our algorithm could be perfected and we suggest some improvements about it.
69

Impacts de l'AOP sur les tests dans un environnement Agile. Utilisation de Mocks pour les tests unitaires d'aspects

Bourbonnais-Bigras, Félix-Antoine 09 1900 (has links) (PDF)
Bien que l’AOP soit présent dans le paysage informatique depuis quelques années, son adoption industrielle reste relativement timide malgré les bénéfices architecturaux promis et espérés. L’objectif principal de nos travaux est de favoriser l’adoption de l’AOP auprès des développeurs oeuvrant dans l’industrie. Nous voulons proposer des solutions adaptées qui permettent à ces professionnels d’embrasser l’AOP sans avoir à sacrifier leur processus, méthodologie et outils actuels qui leur permettent d’atteindre des objectifs de performance, de qualité, de déploiement et de maintenabilité. Afin de nous permettre d’identifier des besoins réels, nous avons centré nos travaux sur des équipes employant un processus Agile. En effet, les processus Agiles préconisent généralement diverses pratiques et principes qui risquent d’être affectés par un changement de paradigme de programmation. C’est notamment le cas des tests qui tiennent une place très importante au sein des méthodes agiles, car ils permettent l’acceptation du changement sur le long terme. Dans un premier temps, nous avons mené une étude exploratoire dont l’objectif était de mieux définir quels seraient les irritants pour des développeurs débutants avec l’AOP et qui travaillent dans un environnement Agile. À la lumière des résultats de cette étude, nous avons amorcé la partie maîtresse de nos travaux qui consistent à élaborer une solution pour faciliter les tests unitaires d’aspects. Pour ce faire, nous avons conçu et rendu disponible un cadre d’applications (framework) permettant la création et le tissage de Mocks avec des aspects, facilitant ainsi l’isolation des aspects. Ce cadre a été développé de manière à s’arrimer avec les pratiques et outils répandus en industrie pour des équipes Agiles. / Although the fact that AOP has been proposed since quite a few years, the industrial adoption of this paradigm is not widespread in spite of the benefits hoped and promised for software architectures. The main goal of our work is to promote the adoption of AOP by industrial developers. We want to provide adapted solutions allowing those professionals to embrace AOP without having to sacrifice their processes, practices and tools. We seek practical solutions to allow them to reach their performance, quality, deployment and maintainability goals. To better identify and understand the real needs of teams using Agile processes, our work is focus on Agile environments. In fact, Agile processes encourage numerous practices and principles that could be affected by the usage of AOP in such projects. For instance, this is the case for software testing who is largely embraced the Agile community as a way of sustaining the acceptation of change over time. Our first step was to conduct an exploratory study to identify what could be the irritants for Agile teams who want to use AOP for the first time. Considering those results, we undertook our main contribution consisting to produce a solution to help unit testing of aspects. To do so, we developed and made available a framework to create and weave Mocks with aspects to help isolate aspects for testing purposes. The framework was designed to integrate easily with practices and tools commonly used in the industry by Agile teams.
70

Approche logique pour l'analyse de traces d'exécutions

Zribi, Rimeh 03 1900 (has links) (PDF)
Les techniques traditionnelles de détection d'intrusions s'appuient sur différentes approches permettant d'identifier une utilisation non prévue et non autorisée de différentes ressources d'un système informatique. Afinn de détecter ces comportements, nous décrivons dans ce mémoire une approche logique de détection d'intrusions basée sur l'identification, dans des traces d'exécutions, de violations de politiques de sécurité données. Le modèle développé spécifie l'état des ressources d'un système ainsi que les effets des différents appels système sur cet état. Le système obtenu, qui s'apparente à un système expert, s'appuie sur un ensemble de règles logiques décrivant les connaissances d'un expert en sécurité informatique. Tout comportement illégal, c'est-à-dire non conforme aux politiques de sécurité considérées, est signalé et est considéré comme une tentative d'intrusion. Le système implémenté est capable de détecter une large classe d'attaques puisque l'approche développée ne se base pas sur certaines séquences particulières d'actions déjà recensées, mais plutôt sur les effets des différentes actions effectuées. De plus, il est capable de détecter de nouveaux comportements malveillants non préalablement identifiés. / Traditional techniques for intrusion detection based on different approaches for identifying unintended and unauthorized use of dfferent resources of a computer system. To detect these behaviors, we describe in this paper a logical approach to intrusion detection based on the identification, in execution traces, of violations of given security policies. The developed model specifies the state of system resources as well as the effects of different system calls on this state. The resulting system, which is similar to an expert system, relies on a set of logical rules describing the knowledge of an expert in computer security. Any illegal behavior, that means not conform to the considered security policies, is reported and is considered as an intrusion attempt. The implemented system is able to detect a wide class of attacks since the approach is not based on some particular sequences of actions already identified, but rather on the effects of different actions performed. In addition, it is able to detect new malicious behavior not previously identified.

Page generated in 0.0992 seconds