161 |
Contribution à la gestion des données géographiques : Modélisation et interrogation par croquisGhazal, Moultazem 21 July 2010 (has links) (PDF)
Les Systèmes d'Information Géographiques (SIG) réclament des besoins particuliers de gestion de leur contenu, parce qu'ils manipulent des données dont les structures sont complexes et hétérogènes. Ces données sont souvent difficiles à décrire par des requêtes classiques ou des prédicats basés sur des attributs. Le croquis à main levée (sketch) est une veille forme de présentation qui a été employée pour visualiser, échanger et enregistrer l'information graphique. Il semble être ainsi facilement adaptable pour présenter et interroger d'une manière flexible les données des SIG
|
162 |
Program Understanding Techniques in Database Reverse EngineeringHenrard, Jean 19 September 2003 (has links)
For many years software engineering has primarily focused on the development of new systems and neglected maintenance and reengineering of legacy applications. Maintenance typically represents 70% of the cost during the life cycle of a system. In order to allow an efficient and safe maintenance of a legacy system, we need to reverse engineer it in order to reconstruct its missing or out-of-date documentation. In data-oriented applications the reverse engineering complexity can be broken down by considering that the database can be reverse engineered independently of the procedural components.
Database reverse engineering can be defined as the process of recovering the database's schema(s) of an application from database declaration text and program source code that use the data in order to understand their exact structure and meaning. A database reverse engineering methodology is broken down into three processes: project preparation, data structure extraction that recovers the database's logical schema and data structure conceptualization that interprets the logical schema in conceptual terms.
In order to validate our methodology and program understanding techniques, we have developed tools to support them. Those tools have proved absolutely necessary to perform database reverse engineering of medium to larger applications in reasonable time and at reasonable cost. To cut down on the cost of large projects, we have stressed the need for automation to reduce the manual work of the analyst. Our experience with real size projects has taught us that the management aspects of a project are essential success factors. The management of a project comprises different aspects such as database reverse engineering explanation, cost evaluation and database reverse engineering result evaluation.
|
163 |
Fédération de données semi-structurées avec XMLDang-Ngoc, Tuyet-Tram 18 June 2003 (has links) (PDF)
Contrairement aux données traditionnelles, les données semi-structurées sont irrégulières : des données peuvent manquer, des concepts similaires peuvent être représentés par différents types de données, et les structures même peuvent être mal connues. Cette absence de schéma prédéfini, permettant de tenir compte de toutes les données du monde extérieur, présente l'inconvénient de complexifier les algorithmes d'intégration des données de différentes sources. Nous proposons une architecture de médiation basée entièrement sur XML. L'objectif de cette architecture de médiation est de fédérer des sources de données distribuées de différents types. Elle s'appuie sur le langage XQuery, un langage fonctionnel conçu pour formuler des requêtes sur des documents XML. Le médiateur analyse les requêtes exprimées en XQuery et répartit l'exécution de la requête sur les différentes sources avant de recomposer les résultats. L'évaluation des requêtes doit se faire en exploitant au maximum les spécificités des données et permettre une optimisation efficace. Nous décrivons l'algèbre XAlgebre à base d'opérateurs conçus pour XML. Cette algèbre a pour but de construire des plans d'exécution pour l'évaluation de requêtes XQuery et traiter des tuples d'arbres XML. Ces plans d'exécution doivent pouvoir être modélisés par un modèle de coût et celui de coût minimum sera sélectionné pour l'exécution. Dans cette thèse, nous définissons un modèle de coût pour les données semi-structurées adapté à notre algèbre. Les sources de données (SGBD, serveurs Web, moteur de recherche) peuvent être très hétérogènes, elles peuvent avoir des capacités de traitement de données très différentes, mais aussi avoir des modèles de coût plus ou moins définis. Pour intégrer ces différentes informations dans l'architecture de médiation, nous devons déterminer comment communiquer ces informations entre le médiateur et les sources, et comment les intégrer. Pour cela, nous utilisons des langages basés sur XML comme XML-Schema et MathML pour exporter les informations de métadonnées, de formules de coûts et de capacité de sources. Ces informations exportées sont communiquées par l'intermédiaire d'une interface applicative nommée XML/DBC. Enfin, des optimisations diverses spécifiques à l'architecture de médiation doivent être considérées. Nous introduisons pour cela un cache sémantique basé sur un prototype de SGBD stockant efficacement des données XML en natif.
|
164 |
Techniques d'optimisation pour la fouille de donnéesFrancisci, Dominique 11 March 2004 (has links) (PDF)
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
|
165 |
Extraction de données symboliques et cartes topologiques: application aux données ayant une structure complexeEl Golli, Aïcha 01 June 2004 (has links) (PDF)
Un des objectifs de lanalyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de lanalyse de données classiques. Un ensemble dopérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensible aux observations aberrantes. Lorsque les données que lon souhaite généraliser sont hétérogènes, certaines assertions incluent des observations virtuelles. Face à ce nouveau formalisme et donc cette extension dordre sémantique que lanalyse de données symbolique a apporté, une nouvelle approche de traitement et dinterprétation simpose. Notre objectif au cours de ce travail est daméliorer tout dabord cette généralisation et de proposer ensuite une méthode de traitement de ces données. Les contributions originales de cette thèse portent sur de nouvelles approches de représentation et de classification des données à structure complexe. Nous proposons donc une décomposition permettant daméliorer la généralisation tout en offrant le formalisme symbolique. Cette décomposition est basée sur un algorithme divisif de classification. Nous avons aussi proposé une méthode de généralisation symbolique non supervisée basée sur l'algorithme des cartes topologiques de Kohonen. L'avantage de cette méthode est de réduire les données d'une manière non supervisée et de modéliser les groupes homogènes obtenus par des données symboliques. Notre seconde contribution porte sur lélaboration dune méthode de classification traitant les données à structure complexe. Cette méthode est une adaptation de la version batch de lalgorithme des cartes topologiques de Kohonen aux tableaux de dissimilarités. En effet, seule la définition dune mesure de dissimilarité adéquate, est nécessaire pour le bon déroulement de la méthode.
|
166 |
Publication de données qui préserve la vie privée pour des données continues et dynamiques: Les approches d'indexation spatiales et de bucketizationAnjum, Adeel 16 May 2013 (has links) (PDF)
La publication de données soucieuse du respect de la vie privée est au coeur des préoccupations des organisations qui souhaitent publier leurs données. Un nombre croissant d'entreprises et d'organismes collectent et publient des données à caractère personnel pour diverses raisons (études démographiques, recherche médicale,...). Selon ces cas, celui qui publie les données fait face au dilemme suivant : comment permettre à un tiers l'analyse de ces données tout en évitant de divulguer des informations trop sensibles, relatives aux individus concernés? L'enjeu est donc la capacité à publier des jeux de données en maîtrisant ce risque de divulgation, c.a.d. de traiter l'opposition entre deux critères : d'un côté, on souhaite garantir la préservation de la confidentialité sur des données personnelles et, d'autre part, on souhaite préserver au maximum l'utilité du jeu de données pour ceux qui l'exploiteraient (notamment, des chercheurs). Dans ce travail, nous cherchons d'abord à élaborer plusieurs notions d'anonymisation des données selon plusieurs contextes. Nous montrons que les index spatiaux sont extrêmement efficaces dans le cadre de la publication de données, en raison de leur capacité à passer à l'échelle. Une évaluation empirique approfondie révèle qu'il est possible de diffuser des données de grande qualité et préservant un certain niveau de confidentialité dans les données. Il est de plus possible de traiter efficacement de très grands jeux de données en grandes dimensions et cette méthode peut être étendue à un niveau de confidentialité plus fort (differential privacy). Par ailleurs, la publication séquentielle de données (mise à jour du jeu de données) est cruciale dans un grand nombre d'applications. Nous proposons une technique menant à bien cette tâche, garantissant à la fois une forte confidentialité des données et une très bonne préservation de leur utilité.
|
167 |
Utilisation de la base de données nationale d'inscription par les firmes de courtage et les régulateurs canadiens : gestion des renseignements personnelsDesjardins, David 08 1900 (has links)
Le présent texte a pour sujet la Base de données nationale d'inscription,
système d'inscription obligatoire depuis quelques mois pour l'ensemble des
firmes de courtage et des représentants en valeurs mobilières au Canada, à
l'exception de ceux et celles qui n'exercent leurs activités qu'en territoire
québécois.
La question de la protection des renseignements personnels compris dans cette
base de données y est analysée en portant une attention particulière à la
pluralité des régimes de protection qui évolue au Canada. En effet, différentes
règles s'appliquent selon que l'on est en présence d'un organisme public ou une
entreprise du secteur privé et selon que la « transaction» est intraprovinciale ou
extraprovinciale.
La Base de données nationale d'inscription remplace dorénavant la procédure
d'inscription sur support papier. Les documents issus de ce système
informatique possèdent des caractéristiques propres et certaines règles doivent
être respectées afin de leurs conférer la même valeur juridique que les
documents papier.
Finalement, la compilation de l'information dans cette gigantesque base de
données serait futile s'il n'était pas possible d'accéder aux renseignements qui y
sont contenus. Une fois les différents types d'accès définis, une comparaison
sera faite avec certains systèmes d'inscription en ligne américains.
La technologie bouleverse nos habitudes dans tous les secteurs de l'économie.
Les finances ne sont pas en reste. Avec la Base de données nationale
d'inscription, c'est tout le système d'inscription de l'industrie canadienne des
valeurs mobilières qui prend un sérieux coup de jeune. Et il était temps ... / The subject of the present text concems the National Registration Database, a
recent mandatory registration system designated for all brokerage firms and
investment advisors across Canada, with the exception of those who exercise
their activities exclusively in Quebec.
The matter of protection of personal information included in this database is
analyzed with an emphasis on the existence of multiple laws evolving in
Canada. In fact, different mIes apply whether you are in the presence of a
public body or an enterprise of the private sector and whether the "transaction"
is concluded within or out of the province.
The National Registration Database replaces the previous paper format
registration procedure. The documents produced by this computerized system
have their own particularities and certain mIes must be respected in order to
maintain a legal value equal to the priOf format.
Finally, the compiling of information found in this enormous database would be
useless if it was not possible to access its information. Once the different types
of access are determined, a comparison will be done with existing American
online registration systems.
It is obvious that technology has had a tremendous impact on the economy. Of
course, the financial industry is affected. With the National Registration
Database, the whole Canadian securities registration system has had a total
makeover. It was about time... / "Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
|
168 |
L'effet de la psychoneurothérapie sur l'activité électrique du cerveau d'individus souffrant du trouble dépressif majeur unipolairePaquette, Vincent January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
169 |
ANALYSE DU METABOLOME URINAIRE HUMAIN PAR CHROMATOGRAPHIE LIQUIDE COUPLEE A LA SPECTROMETRIE DE MASSE A HAUTE RESOLUTIONRoux, Aurélie 21 October 2011 (has links) (PDF)
L'objectif de ce travail de thèse est de développer une base de données spectrale pour faciliter l'annotation et l'interprétation biologique des jeux de données d'analyse métabolomique obtenus en utilisant la chromatographie liquide couplée à la spectrométrie de masse. Deux approches ont été utilisées : (i) l'identification par comparaison aux spectres de masse de composés de références et (ii) l'identification directement à partir des données biologiques. Pour la première approche une chiomiothèque de métabolite a été constituée et analysée. L'identification à partir de données biologiques a été réalisée sur une cohorte de volontaires de 227 individus travaillant au CEA. 244 métabolites ont ainsi été identifiés dans les urines humaines, donc 78 qui n'avaient jamais été décrits comme faisant parti du métabolome urinaire.139 métabolites ont également était caractérisés sur la base de leur masse précise mais sans identification formelle. Ces 383 métabolites représentent environ 1000 ions dans chacun des modes d'ionisation. Les variations physiologiques au sein de la cohorte, en fonction de l'âge, du poids et du genre, de ces différents métabolites ont été étudiées afin de construire une base de données relationnelle. Enfin, le métabolome urinaire pouvant être affecté par les conditions de prélèvement des échantillons d'urines, nous avons réalisé des études de stabilité dans les conditions de prélèvement des métabolites précédemment caractérisés. Ces études nous ont permis de proposer des recommandations en termes de conditions de prélèvement et de stockage à court terme des urines et de mesurer l'impact de la contamination bactérienne sur les concentrations de différents métabolites urinaires.
|
170 |
Contribution au diagnostic des systèmes complexesSubias, Audine 06 September 2006 (has links) (PDF)
Le diagnostic est aujourd'hui plus que jamais un thème de recherche pertinent. La sécurité est en effet au cSur des préoccupations de la société d'aujourd'hui. Les enjeux tant économiques, sociétaux qu'environnementaux en font un des axes majeurs d'innovation pour l'industrie actuelle. Aujourd'hui la conception et l'exploitation des systèmes doivent être abordées en intégrant une dimension sécurité dont le diagnostic fait partie intégrante. C'est dans cette problématique du diagnostic (incluant la détection et le pronostic) que s'inscrivent nos travaux. Deux thèmes de recherches sont explorés : - les modèles et les sources de connaissances pour le diagnostic. Ce thème de recherche couvre les aspects multi-modèles (modèle du procédé, modèle de surveillance, modèle de stratégie &) pour la surveillance, et met en avant la pertinence d'utiliser des sources d'informations variées (ordonnancement, AMDE, historiques &) pour mettre en place une fonction diagnostic. La génération d'un modèle de comportement à partir de données classifiées est également abordée dans ce thème. Une approche de surveillance reposant sur l'observation de la trajectoire d'un système dynamique au travers d'une séquence d'assignations de l'état courant à des classes est développée. - le diagnostic distribué. Les approches proposées ici se focalisent sur la distribution des fonctions et des modèles. Une approche de détection distribuée basée sur un modèle temporel (contraintes) du comportement est développée. Une extension vers le diagnostic embarqué dans le domaine automobile s'appuyant sur un modèle du comportement issu des données de conception est également présentée. Sur la base de ces travaux notre projet de recherche concerne d'une part l'utilisation des approches basées données pour structurer les connaissances et générer automatiquement des modèles exploitables par des méthodes de diagnostic basées modèles, d'autre part la problématique du diagnostic pour l'aide à la décision, notamme nt dans les systèmes où la dimension humaine doit être considérée
|
Page generated in 0.0227 seconds