Spelling suggestions: "subject:"règles"" "subject:"bègles""
331 |
Vers une approche systémique et multivues pour l'analyse de données et la recherche d'information : un nouveau paradigmeLamirel, Jean-Charles 06 December 2010 (has links) (PDF)
Le sujet principal de notre travail d'habilitation concerne l'extension de l'approche systémique, initialement implantée dans le Système de Recherche d'Information NOMAD, qui a fait l'objet de notre travail de thèse, pour mettre en place un nouveau paradigme général d'analyse de données basé sur les points de vue multiples, paradigme que nous avons baptisé MVDA (Multi-View Data Analysis). Ce paradigme couvre à la fois le domaine de l'analyse de données et celui de la fouille de données. Selon celui-ci, chaque analyse de données est considérée comme une vue différente sur les données. Le croisement entre les vues s'opère par l'intermédiaire d'un réseau bayésien construit, de manière non supervisée, à partir des données ou des propriétés partagées entre ces dernières. Le paradigme MDVA repose également sur l'exploitation de méthodes spécifiques de visualisation, comme la visualisation topographique ou la visualisation hyperbolique. La mise en place de nouveaux estimateurs de qualité de type Rappel/Précision non supervisés basés sur l'analyse de la distribution des propriétés associées aux classes, et qui à la fois sont indépendants des méthodes de classification et des changements relatifs à leur mode opératoire (initialisation, distances utilisées ...), nous a permis de démontrer objectivement la supériorité de ce paradigme par rapport à l'approche globale, classique en analyse de données. Elle nous a également permis de comparer et d'intégrer dans le paradigme MVDA des méthodes de classification non supervisées (clustering) neuronales qui sont plus particulièrement adaptées à la gestion des données ultra-éparses et fortement multidimensionnelles, à l'image des données documentaires, ainsi que d'optimiser le mode opératoire de telles méthodes. Notre démarche a par ailleurs impliqué de développer la cohabitation entre le raisonnement neuronal et le raisonnement symbolique, ou entre des modèles de nature différente, de manière à couvrir l'ensemble des fonctions de la recherche et de l'analyse de l'information et à éliminer, sinon à réduire, les défauts inhérents à chacun des types d'approche. A travers de nombreuses applications, notamment dans le domaine de l'évaluation des sciences, nous montrons comment l'exploitation d'un tel paradigme peut permettre de résoudre des problèmes complexes d'analyse de données, comme ceux liés l'analyse diachronique à grande échelle des données textuelles polythématiques. Nous montrons également comment l'ensemble des outils développés dans le cadre de ce paradigme nous ont permis mettre en place de nouvelles méthodes très robustes et très performantes pour la classification supervisée et pour le clustering incrémental. Nous montrons finalement comment nous envisageons d'étendre leur application à d'autres domaines très porteurs, comme ceux du traitement automatique des langues ou de la bioinformatique.
|
332 |
Méthodes et outils pour les problèmes faibles de traductionMalik, Muhammad Ghulam Abbas 09 July 2010 (has links) (PDF)
Étant données une langue source L1 et une langue cible L2, un segment (phrase ou titre) S de n mots écrit en L1 peut avoir un nombre exponentiel N=O(kn) de traductions valides T1...TN. Nous nous intéressons au cas où N est très faible en raison de la proximité des formes écrites de L1 et L2. Notre domaine d'investigation est la classe des paires de combinaisons de langue et de système d'écriture (Li-Wi, Lj-Wj) telles qu'il peut y avoir une seule traduction valide, ou un très petit nombre de traductions valides, pour tout segment S de Li écrit en Wi. Le problème de la traduction d'une phrase hindi/ourdou écrite en ourdou vers une phrase équivalente en devanagari tombe dans cette classe. Nous appelons le problème de la traduction pour une telle paire un problème faible de traduction. Nous avons conçu et expérimenté des méthodes de complexité croissante pour résoudre des instances de ce problème, depuis la transduction à états finis simple jusqu'à à la transformation de graphes de chaînes d'arbres syntaxiques partiels, avec ou sans l'inclusion de méthodes empiriques (essentiellement probabilistes). Cela conduit à l'identification de la difficulté de traduction d'une paire (Li-Wi, Lj-Wj) comme le degré de complexité des méthodes de traduction atteignant un objectif souhaité (par exemple, moins de 15% de taux d'erreur). Considérant la translittération ou la transcription comme un cas spécial de traduction, nous avons développé une méthode basée sur la définition d'une transcription intermédiaire universelle (UIT) pour des groupes donnés de couples Li-Wi, et avons utilisé UIT comme un pivot phonético-graphémique. Pour traiter la traduction interdialectale dans des langues à morphologie flexionnelle riche, nous proposons de faire une analyse de surface sur demande et limitée, produisant des arbres syntaxiques partiels, et de l'employer pour mettre à jour et propager des traits tels que le genre et le nombre, et pour traiter les phénomènes aux limites des mots. A côté d'expériences à grande échelle, ce travail a conduit à la production de ressources linguistiques telles que des corpus parallèles et annotés, et à des systèmes opérationnels, tous disponibles gratuitement sur le Web. Ils comprennent des corpus monolingues, des lexiques, des analyseurs morphologiques avec un vocabulaire limité, des grammaires syntagmatiques du hindi, du punjabi et de l'ourdou, des services Web en ligne pour la translittération entre hindi et ourdou, punjabi (shahmukhi) et punjabi (gurmukhi), etc. Une perspective intéressante est d'appliquer nos techniques à des paires distantes LW, pour lesquelles elles pourraient produire efficacement des présentations d'apprentissage actif, sous la forme de sorties pidgin multiples.
|
333 |
Fonctions de croyance : décompositions canoniques et règles de combinaison.Pichon, Frédéric 24 March 2009 (has links) (PDF)
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
|
334 |
Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEGBourien, Jérôme 20 December 2003 (has links) (PDF)
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:<br /><br />1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.<br /><br />2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.<br /><br />3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").<br /><br />4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.<br /><br />Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
|
335 |
La lettre de crédit commerciale : facilité de crédit désuète ou incomprise ?Béland, Marie-France 03 1900 (has links)
Plus de soixante-quinze ans après la création des Règles et usances uniformes relatives aux crédits documentaires par la Chambre de commerce internationale, pouvons-nous parler d'un véritable succès international de la lettre de crédit commerciale à titre d'instrument de paiement fiable et sécuritaire ? Nonobstant sa triple finalité et l'application formaliste de ses principes d'incessibilité, de stricte conformité et de double autonomie qui ont su, au cours des années, répondre aux besoins résultant de l'évolution du commerce international, il nous semble utopique de parler d'un tel succès. Mais pourquoi ? Confrontées aux réglementations nationales ainsi qu'aux pratiques nationalistes et protectionnistes des états qui ont pourtant adhéré aux Règles et usances relatives aux crédits documentaires, la malléabilité de ces règles semble avoir dénaturé la lettre de crédit commerciale de ses principaux attributs. À cet égard, nous pouvons nous demander si la lettre de crédit commerciale est une facilité de crédit désuète ou incomprise ? La présente thèse est le fruit de maintes réflexions sur les problèmes liés à l'application et l'interprétation de la lettre de crédit commerciale à titre d'instrument international et plus particulièrement sur les lacunes des Règles et usances uniformes relatives aux crédits documentaires. / More than seventy-five years after the creation of the Uniform Customs and Practice for Documentary Credits by the International Chamber of Commerce, can we talk about a true international success of the commercial letter of credit as a reliable and secured instrument of payment? Notwithstanding its triple functions and the formalistic application of its principles of non-assignability, of strict compliance and of dual autonomy, which have answered the needs resulting from the evolution of international commerce, it seems unrealistic to talk about such success. But why? Confronted with the national regulations as well as nationalist and protectionist practices of the states which have nevertheless ratified the Uniform Customs and
Practice for Documentary Credits, the malleability of those rules seems to have been misrepresented of the principal attributes of the commercial letter of credit. ln that respect, we can ask ourselves if the commercial letter of credit is an outdated or misunderstood credit facility? The present thesis is the fruit of many reflections on the problems linked with the application and the interpretation of the commercial letter of credit as an international instrument of payment and more particularly, on the gaps of the Uniform Customs and Practice for Documentary Credits.
|
336 |
Le repérage automatique des entités nommées dans la langue arabe : vers la création d'un système à base de règlesZaghouani, Wajdi January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
337 |
L'ordre administratif : vers une réforme du système judiciaire en RDP LaoNakasene, Vanthong 29 May 2013 (has links) (PDF)
La thèse a pour objectif d'étudier l'ordre administratif : vers une réforme du système judiciaire en RDP Lao à travers l'étude d'identification des règles de droit administratif parmi les textes législatifs existants. La thèse est divisée en deux parties : Première partie : La création d'un droit administratif laotien. L'existence d'un droit administratif laotien est une hypothèse départ qui a permis d'évoquer le développement d'un droit autonome. Puis, les procédures actuelles de résolutions des litiges administratifs ont été étudiées sur la base du questionnaire qui avait été élaboré pour cette étude. Deuxième partie : Pour l'autonomie du droit administratif laotien par la mise en place d'une justice administrative. Il s'agit d'analyser les expériences des pays étrangers : France, Thaïlande et Vietnam sur la création de juridictions administratives. Le but est de connaître comment les juridictions administratives ont vu le jour dans ces pays d'une part et d'autre part d'examiner les caractéristiques celles-ci en tirant les bonnes leçons et expériences afin de proposer le modèle le plus adapté pour le Laos.
|
338 |
Application de techniques de fouille de données en Bio-informatiqueRamstein, Gérard 07 June 2012 (has links) (PDF)
Les travaux de recherche présentés par l'auteur ont pour objet l'application de techniques d'extraction de connaissances à partir de données (ECD) en biologie. Deux thèmes majeurs de recherche en bio-informatique sont abordés : la recherche d'homologues distants dans des familles de protéines et l'analyse du transcriptome. La recherche d'homologues distants à partir de séquences protéiques est une problématique qui consiste à découvrir de nouveaux membres d'une famille de protéines. Celle-ci partageant généralement une fonction biologique, l'identification de la famille permet d'investiguer le rôle d'une séquence protéique. Des classifieurs ont été développés pour discriminer une superfamille de protéines particulière, celle des cytokines. Ces protéines sont impliquées dans le système immunitaire et leur étude est d'une importance cruciale en thérapeutique. La technique des Séparateurs à Vastes Marges (SVM) a été retenue, cette technique ayant donné les résultats les plus prometteurs pour ce type d'application. Une méthode originale de classification a été conçue, basée sur une étape préliminaire de découverte de mots sur-représentés dans la famille d'intérêt. L'apport de cette démarche est d'utiliser un dictionnaire retreint de motifs discriminants, par rapport à des techniques utilisant un espace global de k-mots. Une comparaison avec ces dernières méthodes montre la pertinence de cette approche en termes de performances de classification. La seconde contribution pour cette thématique porte sur l'agrégation des classifieurs basée sur des essaims grammaticaux. Cette méthode vise à optimiser l'association de classifieurs selon des modèles de comportement sociaux, à la manière des algorithmes génétiques d'optimisation. Le deuxième axe de recherche traite de l'analyse des données du transcriptome. L'étude du transcriptome représente un enjeu considérable, tant du point de vue de la compréhension des mécanismes du vivant que des applications cliniques et pharmacologiques. L'analyse implicative sur des règles d'association, développée initialement par Régis Gras, a été appliquée aux données du transcriptome. Une approche originale basée sur des rangs d'observation a été proposée. Deux applications illustrent la pertinence de cette méthode : la sélection de gènes informatifs et la classification de tumeurs. Enfin, une collaboration étroite avec une équipe INSERM dirigée par Rémi Houlgatte a conduit à l'enrichissement d'une suite logicielle dédiée aux données de puces à ADN. Cette collection d'outils dénommée MADTOOLS a pour objectifs l'intégration de données du transcriptome et l'aide à la méta-analyse. Une application majeure de cette suite utilise les données publiques relatives aux pathologies musculaires. La méta-analyse, en se basant sur des jeux de données indépendants, améliore grandement la robustesse des résultats. L'étude systématique de ces données a mis en évidence des groupes de gènes co-exprimés de façon récurrente. Ces groupes conservent leur propriété discriminante au travers de jeux très divers en termes d'espèces, de maladies ou de conditions expérimentales. Cette étude peut évidemment se généraliser à l'ensemble des données publiques concernant le transcriptome. Elle ouvre la voie à une approche à très grande échelle de ce type de données pour l'étude d'autres pathologies humaines.
|
339 |
Métadynamiques en cognition sociale. Quelle définition de meilleur est la meilleure ?Chavalarias, David 25 October 2004 (has links) (PDF)
Quels sont les principes fondateurs de l'auto-organisation des sociétés humaines ? Produits d'une évolution culturelle rapide, qui a pris le pas sur l'évolution biologique, celles-ci réclament une approche par des formalismes radicalement différents de ceux utilisés généralement dans l'étude des autres sociétés animales. Concrètement, la modélisation des rapports entre individus et collectif considère le plus souvent des agents qui peuvent être représentés sous la forme d'une hiérarchie de règles, chacune se plaçant en position méta par rapport aux règles du niveau inférieur. Celles-ci peuvent s'interpréter, selon les niveaux, comme des règles de comportement, des règles de décision, des règles de transmission culturelle ou génétique. L'émergence de régularités au niveau collectif peut alors s'interpréter comme la sélection d'une distribution particulière sur l'ensemble des règles et métarègles définissant les agents. Dès lors, le problème de l'auto-organisation dans les systèmes économiques et sociaux se reformule autour de la question suivante : « Peut-on endogénéiser les distributions des métarègles de comportement de manière à ce qu'elles soient le produit des dynamiques collectives qu'elles définissent ? ». Nous montrons dans cette thèse que la prise en compte, dans les modèles formels, de la spécificité de l'imitation humaine permet de répondre positivement à cette question, un point essentiel étant qu'une règle d'imitation peut être sa propre métarègle. Nous proposons ainsi un cadre formel pour l'étude de sociétés d'agents mimétiques auto-organisées, les jeux métamimétiques ; le concept d'équilibre correspondant est alors l'état contrefactuellement stable : aucun agent ne peut s'imaginer mieux qu'il n'est en se mettant contrefactuellement à la place de l'un de ses voisins. Nous étudions ensuite les propriétés de ces jeux en prenant comme champs d'application le problème de l'émergence de la coopération dans un dilemme de prisonnier spatialisé. Nous montrons au passage, que cette approche permet d'échapper au dilemme. Plus généralement, nous nous plaçons dans le cadre de la théorie des jeux stochastiques et nous explicitons le rôle structurant des perturbations dans ce type de système dynamique, les structures spatio-temporelles émergentes étant le produit du couplage entre la dynamique endogène des systèmes métamimétiques et la structure interne des perturbations. En rupture avec l'approche traditionnelle, ceci nous amène à interpréter l'hétérogénéité auto-organisée des systèmes sociaux humains comme une différenciation par un processus de co-évolution d'une multiplicité de critères possibles, plutôt que par un processus d'optimisation global d'un critère unique.
|
340 |
Pour une prescription capacitante, ergonomie et débats des règles du travail : le cas d'une entreprise déployant la lean production. / Designing an enabling prescription, ergonomics and work rules debates : the case of a company deploying lean production.Perez Toralla, Maria Sol 20 December 2013 (has links)
L'objectif initial de l'ergonomie d'adapter le travail à l'homme a progressivement évolué avec la conception d’une santé construite qui souligne la possibilité pour les travailleurs de faire pleinement usage de leurs compétences. Dans ce cadre, notre principal objectif de recherche était de mieux comprendre les possibilités de développement conjoint des personnes et de l'organisation dans une entreprise automobile de type lean production. Trois axes de recherches ont ainsi été poursuivis. Le premier visait à identifier et analyser le modèle sous-jacent du travail dans la théorie de la lean production. Le deuxième s’est intéressé à la manière dont l'activité de travail est appréhendée dans les approches participatives d’amélioration continue. Enfin, le troisième axe visait à comprendre le rôle de l’ergonomie et de l’ergonome dans la transformation des situations de travail guidée par les objectifs d’optimisation de la lean production. Au cours des chantiers, les opérateurs formulent des possibilités de transformations non prévues qui permettraient une réelle amélioration de la production en agissant sur les déterminants de la qualité de leur travail. L’action de l’ergonome orientée vers une « meilleure » participation des opérateurs par la mise en débat des règles du travail semble alors insuffisante. Une intervention au niveau stratégique de l’entreprise serait indispensable pour prendre en compte les véritables enjeux émanant au cours de ces chantiers d’amélioration continue. / The goal of ergonomic of adapting work to Man has gradually broadened in scope, notably with the evolution of the concept of health towards integrating the possibility for workers to make full use of their skills. Following this view, the main goal of our research was to better understand the possibilities of joint development of people and organization within a “lean production” industry. Three perspectives of analysis were fallowed. The first perspective related to the underlying model of work in lean production. The second perspective focused on mobilizing work activity as part of continual improvement approaches. The third perspective focused on the forms and goals of the transformation of work, in order to identify the role of ergonomics and evolutions in the practice of ergonomics in order to act in a context of deployment of a lean production system. Our results suggested that ergonomic action focused on identifying the conditions of improved participation is not enough. One must also provide feedback at the strategic level of management, so as to broaden the goals of projects aiming for continual improvement, by including the goals that had not been previously anticipated, and that had been formulated by operators.
|
Page generated in 0.0371 seconds