• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 584
  • 363
  • 135
  • 4
  • 3
  • Tagged with
  • 1140
  • 907
  • 617
  • 345
  • 344
  • 304
  • 300
  • 289
  • 260
  • 231
  • 217
  • 211
  • 209
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Agents situés dans l'image et organisés en pyramide irrégulière: Contribution à la segmentation par une approche d'agrégation coopérative et adaptative

Duchesnay, Edouard 13 December 2001 (has links) (PDF)
Les agents situés dans l'image fournissent un cadre privilégié pour la mise en oeuvre de stratégies coopératives et localement adaptées en segmentation d'image. Ils facilitent l'intégration des connaissances a priori, expressions d'un modèle, permettant ainsi de dégager de nouvelles contraintes indispensables à toutes les étapes de la vision par ordinateur (de la segmentation à l'interprétation). Nous proposons un cadre conceptuel pour l'architecture logicielle d'un système de vision bas-niveau basée sur des agents situés dans l'image. Une telle architecture est articulée en trois niveaux d'analyse et de description : 1. Description globale et structurelle de l'organisation regroupant les agents. Cette étape de description s'attache à établir les liens entre agents. Nous proposons comme élément organisationnel la pyramide irrégulière qui impose sa structure à la population d'agents, afin de garantir un comportement globalement contrôlable et convergent de ces derniers. 2. Description locale, fonctionnelle et comportementale des agents composant le système. Nous proposons une mise en oeuvre particulière de l'architecture logicielle de vision bas-niveau. Dans cette dernière, deux familles d'agents, qui traduisent des primitives région et contour, interagissent localement au sein de la pyramide. Notre objectif est de montrer comment cette méthodologie permet une implémentation riche, flexible et distribuée des aspects précédemment identifiés; à savoir : l'adaptation locale, l'intégration et l'expression d'incertitudes dans l'information a priori et des traitements coopératifs région/région et région/contour. 3. Finalement, une analyse globale, comparative et fonctionnelle vérifie que l'ensemble des interactions locales produit une bonne segmentation des images. Nous comparons notre approche avec d'autres méthodes de segmentation sur des images médicales et des images de synthèse.
282

Association Rule Interactive Post-processing using Rule Schemas and Ontologies - ARIPSO

Marinica, Claudia 26 October 2010 (has links) (PDF)
This thesis is concerned with the merging of two active research domains: Knowledge Discovery in Databases (KDD), more precisely the Association Rule Mining technique, and Knowledge Engineering (KE) with a main interest in knowledge representation languages developed around the Semantic Web. In Data Mining, the usefulness of association rule technique is strongly limited by the huge amount and the low quality of delivered rules. Experiments show that rules become almost impossible to use when their number exceeds 100. At the same time, nuggets are often represented by those rare (low support) unexpected association rules which are surprising to the user. Unfortunately, the lower the support is, the larger the volume of rules becomes. Thus, it is crucial to help the decision maker with an efficient technique to reduce the number of rules. To overcome this drawback, several methods have been proposed in the literature such as itemset concise representations, redundancy reduction, filtering, ranking and post-processing. Even though rule interestingness strongly depends on user knowledge and goals, most of the existing methods are generally based on data structure. For instance, if the user looks for unexpected rules, all the already known rules should be pruned. Or, if the user wants to focus on specific family of rules, only this subset of rules should be selected. In this context, we address two main issues: the integration of user knowledge in the discovery process and the interactivity with the user. The first issue requires defining an adapted formalism to express user knowledge with accuracy and flexibility such as ontologies in the Semantic Web. Second, the interactivity with the user allows a more iterative mining process where the user can successively test different hypotheses or preferences and focus on interesting rules. The main contributions of this work can be summarized as follows: (i) A model to represent user knowledge. First, we propose a new rule-like formalism, called Rule Schema, which allows the user to define his/her expectations regarding the rules through ontology concepts. Second, ontologies allow the user to express his/her domain knowledge by means of a high semantic model. Last, the user can choose among a set of Operators for interactive processing the one to be applied over each Rule Schema (i.e. pruning, conforming, unexpectedness, . . . ). (ii) A new post-processing approach, called ARIPSO (Association Rule Interactive Post-processing using rule Schemas and Ontologies), which helps the user to reduce the volume of the discovered rules and to improve their quality. It consists in an interactive process integrating user knowledge and expectations by means of the proposed model. At each step of ARIPSO, the interactive loop allows the user to change the provided information and to reiterate the post-processing phase which produces new results. (iii) The implementation in post-processing of the proposed approach. The developed tool is complete and operational, and it implements all the functionalities described in the approach. Also, it makes the connection between different elements like the set of rules and rule schemas stored in PMML/XML files, and the ontologies stored in OWL files and inferred by the Pellet reasoner. (iv) An adapted implementation without post-processing, called ARLIUS (Association Rule Local mining Interactive Using rule Schemas), consisting in an interactive local mining process guided by the user. It allows the user to focus on interesting rules without the necessity to extract all of them, and without minimum support limit. In this way, the user may explore the rule space incrementally, a small amount at each step, starting from his/her own expectations and discovering their related rules. (v) The experimental study analyzing the approach efficiency and the discovered rule quality. For this purpose, we used a real-life and large questionnaire database concerning customer satisfaction. For ARIPSO, the experimentation was carried out in complete cooperation with the domain expert. For different scenarios, from an input set of nearly 400 thousand association rules, ARIPSO filtered between 3 and 200 rules validated by the expert. Clearly, ARIPSO allows the user to significantly and efficiently reduce the input rule set. For ARLIUS, we experimented different scenarios over the same questionnaire database and we obtained reduced sets of rules (less than 100) with very low support.
283

Fouille de données, Contributions Méthodologiques et Applicatives

Collard, Martine 16 December 2003 (has links) (PDF)
Les travaux présentés dans ce mémoire, ont été développés sur le thème de la découverte de motifs intéressants à travers la fouille de données et mis en oeuvre dans le cadre de la conception de systèmes d'information. Ils sont essentiellement consacrés aux problèmes soulevés par l'étape de fouille pour la découverte de modèles et de motifs fréquents. Ils sont à la fois d'ordre méthodologique et applicatif.
284

Hydrogénases artificielles : nouveaux catalyseurs biosynthétiques pour la production d'hydrogène

Bacchi, Marine 24 September 2013 (has links) (PDF)
A l'heure actuelle la recherche de nouvelles ressources énergétiques est un domaine en plein développement. Dans ce cadre, l'hydrogène moléculaire y a toute sa place et sera un vecteur énergétique majeur du XXIème siècle en permettant le stockage des énergies renouvelables. Cependant son utilisation est pour l'instant limitée à cause du coût élevé de sa production, industriellement basée sur le platine comme catalyseur. Un des enjeux majeurs de ce siècle est donc de trouver de nouveaux catalyseurs performants pour la production d'hydrogène et dont le coût soit suffisamment faible pour permettre un développement industriel. Les hydrogénases sont des enzymes catalysant la réduction de protons en hydrogène avec une grande efficacité et en conditions douces. Leurs sites actifs sont basés sur des métaux abondants comme le nickel ou le fer et ont des activités similaires au platine dans certaines conditions. Cependant quelques inconvénients, comme leur inactivation par l'oxygène ou encore le fait qu'il soit assez difficile de les produire sous forme active, limitent leur utilisation technologique. Dans ce contexte, la chimie bio-inspirée et la chimie biomimétique sont particulièrement prometteuses : prenant exemple sur la nature et plus particulièrement sur les sites actifs enzymatiques, elles permettent de développer de nouvelles familles de catalyseurs. On a pu ainsi développer des complexes dinucléaire nickel-fer ou encore des complexes de cobalt ayant une activité dans la catalyse de réduction de protons. Certains complexes de cobalt, les cobaloximes et les complexes diimine dioxime de cobalt ont ainsi montré de bonnes activités dans la réduction de protons en milieux organiques ou mixtes organiques/eau. Jusqu'alors cependant peu d'études ont été effectuées en milieux complétement aqueux. Nous pouvons aller plus loin dans cette démarche via une approche dite biosynthétique, qui vise à incorporer des catalyseurs inorganiques dans des enveloppes protéiques. Ces enveloppes protéiques peuvent, par différentes interactions, potentiellement améliorer la solubilité et la stabilité dans l'eau des catalyseurs inorganiques. La thèse qui suit se concentre sur cette approche et plus particulièrement sur la production, la caractérisation et l'étude de nouveaux hybrides entre différentes hémoprotéines (myoglobine et hème oxygénase en particulier) et différents complexes de cobalt (cobaloximes et complexe diimine dioxime de cobalt). Après avoir mis au point un protocole pour la production et la purification de la myoglobine de cachalot sans son cofacteur héminique, nous nous sommes intéressés à préparer et caractériser différents hybrides. Nous avons pu montrer par ce travail que les hémoprotéines dépourvues de leur cofacteur biologique ont une affinité particulière pour les complexes de cobalt et que la coordination de ces complexes inorganiques se fait via une seule histidine de la protéine hôte. Les hybrides ainsi obtenus ont montré une grande stabilité en solution. En plus de l'ajout d'un ligand histidine en axial du cobalt, l'enveloppe protéique permet de moduler la seconde sphère de coordination. Nous avons pu montrer au cours de ce projet que la nature de la protéine hôte module les caractéristiques spectroscopiques et électrochimiques du complexe de cobalt. Enfin ces hybrides ont montré d'une manière générale une activité catalytique pour la production et la photoproduction d'hydrogène dans l'eau, là encore avec une nette influence de la protéine hôte sur l'activité du complexe. Nous avons donc au cours de cette thèse préparé et caractérisé des systèmes hybrides pouvant être qualifiés d'hydrogénases artificielles.
285

Modèles d'Ensembles pour l'Apprentissage Multi-Tache, avec des taches Hétérogènes et sans Restrictions

Faddoul, Jean Baptiste 18 June 2012 (has links) (PDF)
Apprendre des tâches simultanément peut améliorer le performance de prédiction par rapport à l'apprentissage de ces tâches de manière indépendante. dans cette thèse, nous considérons l'apprentissage multi-tâche lorsque le nombre de tâches est grand. En outre, nous détendons des restrictions imposées sur les tâches. Ces restrictions peuvent trouvées dans les méthodes de l'état de l'art. Plus précisément on trouve les restrictions suivantes : l'imposition du même espace d'étiquette sur les tâches, l'exigence des mêmes examples d'apprentissage entre tâches et / ou supposant une hypothèse de corrélation globale entre tâches. Nous proposons des nouveaux classificateurs multi-tâches qui relaxent les restrictions précédentes. Nos classificateurs sont considérés en fonction de la théorie de l'apprentissage PAC des classifieurs faibles, donc, afin de parvenir à un faible taux d'erreur de classification, un ensemble de ces classifieurs faibles doivent être appris. Ce cadre est appelé l'apprentissage d'ensembles, dans lequel nous proposons un algorithme d'apprentissage multi-tâche inspirée de l'algorithme Adaboost pour seule tâche. Différentes variantes sont proposées également, à savoir, les forêts aléatoires pour le multi-tâche, c'est une méthode d'apprentissage d'ensemble, mais fondée sur le principe statistique d'échantillonnage Bootstrap. Enfin, nous donnons une validation expérimentale qui montre que approche sur-performe des méthodes existants et permet d'apprendre des nouvelles configurations de tâches qui ne correspondent pas aux méthodes de l'état de l'art.
286

Apprentissage de problèmes de contraintes

Lopez, Matthieu 08 December 2011 (has links) (PDF)
La programmation par contraintes permet de modéliser des problèmes et offre des méthodes de résolution efficaces. Cependant, sa complexité augmentant ces dernières années, son utilisation, notamment pour modéliser des problèmes, est devenue limitée à des utilisateurs possédant une bonne expérience dans le domaine. Cette thèse s'inscrit dans un cadre visant à automatiser la modélisation. Les techniques existantes ont montré des résultats encourageants mais certaines exigences rendent leur utilisation encore problématique. Dans une première partie, nous proposons de dépasser une limite existante qui réside dans la nécessité pour l'utilisateur de fournir des solutions du problème qu'il veut modéliser. En remplacement, il nous fournit des solutions de problèmes proches, c'est-à-dire de problèmes dont la sémantique de fond est la même mais dont les variables et leur domaine peuvent changer. Pour exploiter de telles données, nous proposons d'acquérir, grâce à des techniques de programmation logique inductive, un modèle plus abstrait que le réseau de contraintes. Une fois appris, ce modèle est ensuite transformé pour correspondre au problème initial que souhaitait résoudre l'utilisateur. Nous montrons également que la phase d'apprentissage se heurte à des limites pathologiques et qui nous ont contraints à développer un nouvel algorithme pour synthétiser ces modèles abstraits. Dans une seconde partie, nous nous intéressons à la possibilité pour l'utilisateur de ne pas donner d'exemples du tout. En partant d'un CSP sans aucune contrainte, notre méthode consiste à résoudre le problème de l'utilisateur de manière classique. Grâce à un arbre de recherche, nous affectons progressivement des valeurs aux variables. Quand notre outil ne peut décider si l'affectation partielle courante est correcte ou non, nous demandons à l'utilisateur de guider la recherche sous forme de requêtes. Ces requêtes permettent de trouver des contraintes à ajouter aux modèles du CSP et ainsi améliorer la recherche.
287

Modèles de la rationalité des acteurs sociaux

El Gemayel, Joseph 25 June 2013 (has links) (PDF)
Le travail présenté dans ce mémoire s'inscrit dans le cadre du projet SocLab, qui propose une formalisation de la sociologie de l'action organisée de Crozier et Friedberg. Cette formalisation repose sur un méta-modèle de la structure des organisations sociales, à partir duquel il est possible de décrire la structure d'une organisation particulière, de développer une étude analytique de ses propriétés et surtout de calculer, par simulation, les comportements que les acteurs de cette organisation sont susceptibles d'adopter les uns vis-à-vis des autres. Selon cette approche, une organisation est vue comme un système qui, en fonction du comportement des acteurs les uns envers les autres, procure à chacun d'eux une certaine capacité d'action pour atteindre ses objectifs, sans distinguer ceux qui relèvent de son rôle et ceux qui lui sont propres. Ces comportements sont relativement stabilisés, condition indispensable à la coordination des acteurs dans l'accomplissement, au moins partiel, de ce qui constitue la raison d'être de l'organisation, et donc indispensable à l'existence même de cette organisation. Ces comportements s'avèrent de plus être globalement coopératifs, facilitant ainsi la réalisation des objectifs, aussi bien ceux propres à chacun que ceux du collectif dans son ensemble. Cette thèse porte sur la modélisation de la rationalité qui conduit un acteur social à adopter un tel comportement dans le " jeu social " que constitue un contexte d'interaction organisationnel. Selon la sociologie de l'action organisée, cette rationalité est stratégique, guidée par la recherche de son intérêt, et elle s'exerce dans le cadre d'une rationalité (très) limitée. Le modèle proposé cherche à être vraisemblable, du point de vue social et du point de vue psycho-cognitif, et il s'inscrit dans le paradigme de l'apprentissage par renforcement. Dans la mesure où la structure de l'organisation le permet, les simulations convergent donc vers des configurations que l'on peut qualifier d'optima Pareto-équitables. On étudie aussi diverses variantes de cet algorithme correspondant à des rationalités qui conduisent une organisation à se réguler vers des configurations élitistes, protectrices ou égalitaristes, ou encore vers un équilibre de Nash.
288

Etudes des mécanismes réseaux associés à la restauration préventive dans le réseau coeur à fibres optiques

PESIC, Jelena 06 April 2012 (has links) (PDF)
L'augmentation continuelle du trafic dans le coeur de réseau à fibres optiques amène les opérateurs à utiliser des techniques capables de supporter cette croissance : augmentation de la capacité de transport, soit par l'augmentation du débit par canal, soit par l'augmentation du nombre de canaux ou les deux. Ces nouveaux systèmes de transmission sont très couteux et dans des réseaux de taille européenne voire même plus grands, la question se pose également sur la performance de ces systèmes pour éviter de multiplier des interfaces coûteuses entre l'optique et l'électronique. C'est dans ce contexte que se sont développées des technologies optiques transparentes de brassage de longueur d'onde. On ne parle plus alors du coeur du réseau comme d'une juxtaposition de gros tuyaux mais bien d'un réseau optique transparent et maillé. Outre les gains économiques attendus, cette nouvelle fonction de brassage au niveau optique rend ce réseau flexible, et capable de délivrer de la bande passante à la demande en échange d'une complexité croissante du point de vue de la gestion et de la commande de ces réseaux. L'augmentation des débits a par ailleurs une conséquence importante : désormais la moindre coupure sur une longueur d'onde a une conséquence majeure compte tenu de la quantité de données transportées. Rendre les réseaux robustes vis à vis des interruptions est donc devenu encore plus important et cependant de plus en plus complexe. Cependant les contraintes appliquées à la couche optique sont restées très conservatrices : "l'optique" doit fournir un service de qualité maximum aux couches supérieures, c'est-à-dire garantir une transmission parfaite et sans perte des données. Pratiquement cela se traduit par l'obligation pour tous les canaux d'une liaison WDM (Wavelength Division Multiplexing) donnée de fonctionner sans erreur (le plancher est fixé à 10-12 erreurs par seconde pour les systèmes optiques terrestres) et sans coupure pour la durée de son exploitation (qui, en général, est de 8 à 10 ans sur les systèmes terrestre). Garantir le fonctionnement d'un canal dans un contexte de réseaux optiques maillés est encore plus complexe que dans le contexte d'une liaison "point à point". Les règles universellement adoptée pour la mise en service des systèmes de transmission "point à point" consistent à "sur-dimensionner" les systèmes, c'est-à-dire à installer des systèmes dont la plupart des canaux sont capables de supporter plus de dégradations que ce que prévoit le fonctionnement moyen, cela pour permettre à tous les canaux de la liaison WDM de fonctionner en permanence de façon satisfaisante. Cela signifie que le fonctionnement est prévu pour supporter le "pire" des cas en terme de dégradation, même si ce cas est très peu probable. Appliquer une règle similaire pour la conception des réseaux optiques maillés reviendrait à dimensionner les systèmes de transmission pour qu'ils supportent le "pire" des chemins, sans savoir si ce chemin sera effectivement mis en service. Cette solution tendancielle a bien sûr l'avantage de garantir la qualité de transmission. Cependant elle a l'inconvénient de coûter cher puisque l'opérateur paye pour des performances dont il n'a pas besoin.
289

Exploitation de données tridimensionnelles pour la cartographie et l'exploration autonome d'environnements urbains /

Fournier, Jonathan. January 2007 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2007. / Bibliogr.: f. [110]-113. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
290

Contraintes et représentation de connaissances par objets, application au modèle TROPES /

Gensel, Jérôme, January 1900 (has links)
Th. doct.--Informatique--Grenoble 1, 1995. / Bibliogr. p. 285-295. Résumé en anglais et en français. 1996 d'après la déclaration de dépôt légal.

Page generated in 0.0581 seconds