Spelling suggestions: "subject:"connées"" "subject:"abonnées""
101 |
Fusion de données satellitaires pour la cartographie du potentiel éolien offshoreBen Ticha, Mohamed Bassam 05 November 2007 (has links) (PDF)
L'énergie éolienne est une des composantes d'une politique énergétique permettant de réaliser un développement durable. Ces dernières années, des parcs éoliens offshore ont été installés. Ces parcs bénéficient d'un vent plus fort et plus régulier en mer que sur terre. Pour un choix judicieux des lieux d'implantation des parcs éoliens, il est nécessaire de disposer d'une cartographie du potentiel éolien. Ces cartes doivent être à haute résolution spatiale pour détecter les variations du potentiel à l'échelle d'un parc éolien. La cartographie du potentiel éolien se fait au travers de la description de la variation spatiale des paramètres statistiques caractérisant la climatologie du vent. Pour une estimation précise de ces paramètres statistiques, il est nécessaire d'avoir des mesures de vitesse et de direction du vent à haute résolution temporelle. Cependant, aucune source de données, actuelle, n'allie la haute résolution spatiale et la haute résolution temporelle. On propose une méthode de fusion de données permettant de tirer profit de la haute résolution spatiale de certains instruments de télédétection (les radars à ouverture synthétiques) et de la haute résolution temporelle d'autres instruments de télédétection (les radars diffusomètres). La méthode de fusion est appliquée à un cas d'étude et les résultats sont évalués. Les résultats montrent la pertinence de la fusion de données pour la cartographie du potentiel éolien offshore.
|
102 |
Efficient Content-based Retrieval in Parallel Databases of ImagesManjarrez Sanchez, Jorge 26 October 2009 (has links) (PDF)
Cette thèse porte sur le traitement des requêtes par similarité sur les données de haute dimensionnalité, notamment multimédias, et, parmi elles, les images plus particulièrement. Ces requêtes, notamment celles des k plus proches voisins (kNN), posent des problèmes de calcul de par la nature des données elles-mêmes et de la taille de la base des données. Nous avons étudié leurs performances quand une méthode de partitionnement est appliquée sur la base de données pour obtenir et exploiter des classes. Nous avons proposé une taille et un nombre optimaux de ces classes pour que la requête puisse être traitée en temps optimal et avec une haute précision. Nous avons utilisé la recherche séquentielle comme base de référence. Ensuite nous avons proposé des méthodes de traitement de requêtes parallèles sur une grappe de machines. Pour cela, nous avons proposé des méthodes d'allocation des données pour la recherche efficace des kNN en parallèle. Nous proposons de même, un nombre réduit de noeuds sur la grappe de machines permettant néanmoins des temps de recherche sous-linéaires et optimaux vis-à-vis des classes déterminées précédemment. Nous avons utilisé des donnés synthétiques et réelles pour les validations pratiques. Dans les deux cas, nous avons pu constater des temps de réponse et une qualité des résultats supérieurs aux méthodes existantes, lesquelles, au-delà d'un faible nombre des dimensions, deviennent inefficaces.
|
103 |
Vers l'OLAP sémantique pour l'analyse en ligne des données complexesLoudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
|
104 |
Développement d'une base de données bioinformatique spécialisée GBank UQAMDjema, Rabah January 2008 (has links) (PDF)
La base de données GBank de l'UQAM a été développée afin de pallier certains problèmes majeurs posés par l'utilisation de la base de données GenBank du NCBI. En effet, les problèmes suivants ont déclenché le développement de GBank UQAM: 1-Certaines requêtes complexes utilisées par les bioinformaticiens sont lentes en raison notamment de la taille énorme et toujours croissante de la base de données. 2-Les bioinformaticiens de l'UQAM dépendent entièrement de la base de NCBI. En cas de sa panne, ils n'ont pas de possibilité d'y accéder. 3-Les utilisateurs n'ont aucun contrôle sur la base de données GenBank. En plus, ils dépendent entièrement des mises à jour du NCBI. 4-Les outils de GenBank pour le filtrage des données ne sont pas toujours adaptés aux besoins des bioinformaticiens intéressés par l'analyse phylogénétique. Ceci mène les bioinformaticiens de se soumettre au mode de fonctionnement de la base GenBank. GBank UQAM se voit donc un sous-ensemble de la base GenBank international, qui résout en totalité ou partiellement les problèmes posés ci-dessus. Ceci a été rendu possible notamment grâce à l'utilisation de la base de données Oracle 10g qui offre plusieurs caractéristiques intéressantes. La nouvelle base de l'UQAM permettrait donc: 1-d'Améliorer le temps de réponse: Étant traité localement, nous pouvons offrir un temps d'accès nettement meilleur. 2-de Mieux contrôler les données: Nous pouvons organiser les données selon nos besoins et donc rendre la base de données plus optimale. En effet, maintenant nous sommes capables de filtrer les données selon nos besoins spécifiques ce qui augmente nettement notre productivité. 3-d'Optimiser la base de données: Avec des temps de réponses améliorés et une plus grande maniabilité dans la gestion de la base de données de l'UQAM, il nous est possible d'optimiser continuellement notre base de données pour la rendre plus évolutive et plus adaptée à nos besoins futurs. Afin de mieux exploiter la nouvelle base de données, nous avons élaboré une interface utilisateur facile et conviviale qui répond à tous les besoins des utilisateurs (bioinformaticiens) d'une base de données bioinformatique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : GBank UQAM, Bioinformatique, Oracle10g, Performances, T-REX.
|
105 |
L'exploitation de l'auto-similarité pour la prédiction du trafic InternetChtioui, Maher January 2006 (has links) (PDF)
Les recherches qui se font pour modéliser l'évolution de trafic Internet sur une grande échelle de temps et pour développer des modèles de prédictions à court et à long terme constituent les domaines les plus intéressés par les chercheurs en technologies de l'information. En effet, pour compléter et affiner la caractérisation du trafic introduite par les premières études et recherches, il est fort utile de modéliser de façon nouvelle et efficace le trafic Internet. Jusqu'à présent, les ingénieurs et chercheurs en réseau utilisaient des modèles Mathématiques et Statistiques pour modéliser les processus de trafic. Pour ce, il faudrait proposer de nouveaux modèles de trafic réalistes. On peut notamment citer le trafic réseau le plus réaliste en intégrant les notions d'auto-similarité et de dépendance à long terme LRD. En utilisant des outils mathématiques, on a commencé par chercher le type du processus à partir des historiques de l'information et savoir le type de trafic pour des différentes échelles de temps, ceci exige une grande collection de mesures sur une longue durée de temps. Ce que nous a permit de montrer que le trafic dans un réseau Internet est exposé à des fortes périodicités et des variabilités aux multiples échelles de temps. Une autre contribution importante, décrite en détail dans ce mémoire, consiste à utiliser les résultats des simulations de trafic Internet plus réalistes afin d'appliquer des algorithmes de prédiction sur ces séries simulées. Quatre algorithmes ont été testés dans ce cadre intégrant des modèles mathématiques afin d'offrir des preuves et des validations du bon fonctionnement des solutions proposées, pour en sortir à la fin, le meilleur algorithme qui permet de donner un taux d'erreurs minimum ainsi qu'une grande simplicité dans son application.
|
106 |
Étude sur l'observabilité de l'atmosphère et l'impact des observations sur les prévisions météorologiquesLupu, Cristina 08 1900 (has links) (PDF)
L'assimilation de données est une composante essentielle du système de prévision numérique du temps et consiste à trouver un état de l'atmosphère, l'analyse, qui est compatible avec les différentes sources d'observations, la dynamique de l'atmosphère et un état antérieur du modèle. Dans ce processus, il est important de bien caractériser l'erreur associée à chaque source d'information (observations, ébauche) afin de mieux décrire les conditions initiales. La matrice de covariance des erreurs de prévisions joue un rôle clé dans le processus d'assimilation de données car elle détermine la nature de la correction apportée par l'analyse. Cette matrice étant trop grande pour être représentée explicitement, elle est modélisée sous la forme d'une suite d'opérateurs relativement simples. Les modèles de covariance d'erreurs de prévisions utilisées dans un 3D-Var sont généralement stationnaires et ne considèrent pas des variations dues à la nature de l'écoulement. En présence d'instabilité, une petite erreur dans les conditions initiales connaîtra une croissance rapide. Pour contrôler cette croissance d'erreur à courte échéance, il est nécessaire d'apporter des corrections à l'analyse dans des régions localisées selon une structure spatiale très particulière. L'assimilation adaptative 3D-Var considère une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a posteriori et a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans le cadre de cette thèse, des fonctions de sensibilité sont introduites comme fonctions de structure dans l'assimilation 3D-Var. La définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. L'observabilité des fonctions de structure par les observations est tout d'abord présentée et analysée dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduite dans le 3D-Var d'Environnement Canada. L'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. Les résultats montrent que si le rapport entre l'amplitude du signal et l'erreur d'observation est très faible, les observations ne sont pas en mesure de détecter les instabilités atmosphériques qui peuvent croître très rapidement. Dans cette perspective, l'assimilation pourra seulement extraire l'information contenue dans les structures atmosphériques déjà évoluées. Dans un deuxième temps, nous présentons une nouvelle méthode permettant d'estimer l'impact des observations dans les analyses 3D/4D-Var basé sur le Degrees of freedom for signal. Le contenu en informations des observations est calculé en employant les statistiques a posteriori, à partir des écarts des observations à l'ébauche et à l'analyse. Les résultats montrent que le DFS estimé en utilisant les statistiques a posteriori est identique avec celui obtenu à partir des statistiques a priori. Ce diagnostic permet de comparer l'importance de différents types d'observations pour les expériences d'assimilation 3D et 4D-Var incluant toutes les observations assimilées opérationnellement. En particulier, cette étude s'intéresse à l'évaluation du réseau canadien d'observations et il est appliqué aux Observing System Experiments (OSEs) effectués à Environnement Canada pour les mois de janvier et février 2007.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Assimilation de données, Dépendance à l'écoulement, 3D-Var, DFS, OSEs.
|
107 |
Methodologie et structuration d'un outil de decouverte de connaissances base sur la litterture biomedicale : une application basee sur le MeSHPierret, Jean-Dominique 28 February 2006 (has links) (PDF)
L'information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d'exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d'une requête est donc un ensemble d'informations connues qui n'apporte en lui-même aucune nouveauté. <br />Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l'information disponible qu'à la méthodologie utilisée. Cette méthodologie générale s'applique de façon privilégiée dans un environnement d'information validée et structurée ce qui est le cas de l'information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu'elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d'information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature.
|
108 |
Banque de données et banc d'essai en détection de changementGoyette, Nil January 2013 (has links)
Les caméras de vidéosurveillance sont de plus en plus présentes dans notre société, à un point tel que les séquences vidéo sont souvent enregistrées sans être regardées par des agents de sécurité. Il convient donc de créer des algorithmes qui vont effectuer le même travail d'analyse que des surveillants humains. Bien qu'il y ait des inquiétudes au niveau de la vie privée, on peut envisager maintes applications, toutes au service de la société. La détection de changement est à la base de bon nombre d'applications en analyse vidéo. Elle consiste à détecter tout changement intéressant dans une séquence capturée par une caméra fixe. Bien que les méthodes gèrent mieux les difficultés inhérentes à ce problème, il n'y a pas encore de solution définitive à la détection de changement. Avec des milliers de méthodes disponibles dans la littérature, il est présentement très difficile, voire impossible, de comparer ces méthodes et d'identifier lesquelles répondent mieux aux différents défis. Les auteurs font face au même problème lorsqu'ils désirent se comparer à l'état de l'art. Pour faire face à cette situation, nous avons créé un banc d'essai en détection de changement. Ceci inclut la création d'une banque de données d'envergure, d'une méthode d'évaluation quantitative équitable et d'un site web pour consulter le classement et télé-charger les résultats de segmentation des compétiteurs. Des outils et de la documentation pour utiliser ces derniers sont aussi offerts, le tout accessible gratuitement et simplement sur Internet. Comme le but est de devenir le standard de facto , le projet est suffisamment complet et intéressant pour convaincre la communauté scientifique de l'adopter. Ce faisant, nous avons créé notre propre programme d'annotation libre, rassemblé et programmé une dizaine de méthodes de détection de changement, puis déterminé les meilleures méthodes et les difficultés auxquelles la communauté devrait s'attaquer au cours des prochaines années. L'atelier organisé à CVPR 2012, le grand nombre de soumissions et le bon achalandage du site sont des indicateurs encourageants quant à la réussite de notre travail. Il est encore trop tôt pour confirmer quoi que ce soit car l'adoption d'un nouveau standard prend du temps, mais notre pronostic est positif.
|
109 |
Evaluation d'une mesure de similitude en classification supervisée : application à la préparation de données séquentiellesFerrandiz, Sylvain 23 October 2006 (has links) (PDF)
En phase de préparation d'un processus de fouille de données, une part importante<br />du travail est consacrée à la construction et à la sélection des variables descriptives.<br />L'approche filtre univariée usuellement adoptée nécessite l'emploi d'une méthode<br />d'évaluation d'une variable. Nous considérons la question de l'évaluation supervisée d'une<br />variable séquentielle. Pour résoudre ce problème, nous montrons qu'il suffit de résoudre<br />un problème plus général : celui de l'évaluation supervisée d'une mesure de similitude.<br /><br />Nous proposons une telle méthode d'évaluation. Pour l'obtenir, nous formulons le<br />problème en un problème de recherche d'une partition de Voronoi informative. Nous<br />proposons un nouveau critère d'évaluation supervisée de ces partitions et une nouvelle<br />heuristique de recherche optimisée. Le critère prévient automatiquement le risque de surapprentissage<br />et l'heuristique trouve rapidement une bonne solution. Au final, la méthode<br />réalise une estimation non paramétrique robuste de la densité d'une variable cible catégorielle<br />conditionnellement à une mesure de similitude définie à partir d'une variable descriptive.<br /><br />La méthode a été testée sur de nombreux jeux de données. Son utilisation permet<br />de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire<br />sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa<br />consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l'appétence à un nouveau service ?
|
110 |
La protection des données à caractère personnel face aux usages illicites, déloyaux et frauduleux / The protection of personal data against illicit, unfair and fraudulent useMattatia, Fabrice 28 September 2010 (has links)
La généralisation des services numériques facilite la vie de leurs utilisateurs en leur offrant la possibilité d’accéder aux informations, aux démarches, ou aux loisirs, de n’importe quel endroit, à n’importe quelle heure. Cette évolution s’accompagne d’une augmentation de la collecte de données personnelles, en vue d’une part de proposer à l’utilisateur le service le plus adapté à ses besoins, et d’autre part de financer les services gratuits par de la publicité ciblée. Il en résulte corrélativement un risque croissant de détournement de finalité ou de divulgation de ces données, que ce soit le fait d’entreprises cherchant à maximiser leurs profits, ou de cybercriminels désireux d’exploiter ces données pour commettre des infractions. Les principes européens de protection des données personnelles sont repris en France dans la loi Informatique et Libertés. L’étude de la jurisprudence montre que la protection de ces principes par l’ordre judiciaire est relativement inadaptée, les préjudices étant souvent insuffisants pour motiver une action, et la justice n’ayant pas les moyens d’investigation proportionnés à des délits très nombreux et dont l’auteur peut agir depuis l’étranger. Une telle situation appelle le recours à un régulateur spécialisé comme la CNIL, qui jouit de la faculté d’accumuler une expertise dont l’administration centrale est dépourvue, et de pouvoir s’adapter rapidement aux évolutions de son secteur. Une implication des différents acteurs, dans le cadre d’une régulation participative, est également souhaitable pour permettre une diffusion maximale des bonnes pratiques, et prévenir en amont les atteintes aux données personnelles. Le dialogue entre prestataires et utilisateurs constitue également un nouveau mode de régulation. / The widespread digital services give the user the possibility to access to information, procedures or entertainment, anywhere, at any time. This evolution is accompanied by an increase in the collection of personal data, in order, on the one hand, to offer the user the service most suited to its needs, and on the other hand, to fund the free services by behavioral marketing. This results in an ever-increasing risk of misuse or disclosure of such data, whether made by firms seeking to maximize their profits, or by cybercriminals seeking to exploit these data to commit frauds. The study of case law shows that the protection of the European data protection principles, as transposed in the French Data Protection Act, by the judiciary is relatively inadequate: prejudice is often insufficient to motivate action, offenses are too numerous, and the fraudster can act from abroad. Such a situation requires the use of a specialized regulator as the CNIL (French data protection authority), which has the ability to accumulate expertise and to adapt quickly to changes in its sector. Moreover, the involvement of the different actors in the frame of co-regulation or of self-regulation, is also desirable, to allow for a maximum dissemination of good practices and to prevent protection breaches. Digital services can also deal directly with their users.
|
Page generated in 0.0416 seconds