• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 694
  • 320
  • 100
  • 2
  • 1
  • Tagged with
  • 1130
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 110
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Capacité d'une mémoire associative à fonction de sortie chaotique

Cherif, Mounia 12 1900 (has links) (PDF)
Un des thèmes de recherche privilégié pour les sciences cognitives et l'intelligence artificielle est l'étude des capacités d'association du cerveau humain. L'objectif est de développer des modèles de mémoires dotés de caractéristiques similaires, que ce soit en termes d'adaptabilité, d'efficacité, ou de robustesse. Plusieurs modèles de mémoires associatives ont été développés et présentés dans la littérature, parmi eux le modèle de mémoire associative bidirectionnelle BAM de Kosko (Kosko, 1988). Ce modèle utilise une règle d'apprentissage hebbienne qui le rend plausible biologiquement, mais il possède plusieurs limitations cependant. En effet, sa règle d'apprentissage impose des contraintes d'orthogonalité entre les différents motifs appris qui entraine une faible capacité de mémorisation et une faible résilience face au bruit. De plus, le modèle peut apprendre uniquement des patrons encodés en binaire et linéairement séparables. De nombreux efforts ont été, et continuent aujourd'hui à être déployés pour tenter d'améliorer le modèle de Kosko. La plupart visent l'augmentation de la capacité de stockage et l'amélioration de la performance de rappel. Quelques-uns des modèles proposés réussissent à classifier des problèmes non séparables linéairement, mais s'éloignent de l'architecture originale de Kosko ou parfois, utilisent des méthodes d'apprentissage qui s'écartent du principe de Hebb, ce qui les rend moins plausibles biologiquement. Dans le présent mémoire, nous approfondissons l'étude d'un modèle récent de BAM, proposé par Chartier et Boukadoum (2006a) et caractérisé par une fonction de sortie chaotique, une architecture asymétrique, et une règle d'apprentissage hebbienne modifiée. Plus spécifiquement, nous étudions l'impact de modifier la fonction de sortie, en lui ajoutant un paramètre d'asymétrie, sur la capacité du réseau à traiter des tâches de classification non linéairement séparables. Nous nous inspirons de la théorie des catastrophes pour le cadre théorique de notre étude. Nous expérimentons sur le modèle en vue d'améliorer sa performance de classification sans complexifier son architecture ou nous écarter de la plausibilité biologique de la règle d'apprentissage. Pour ce faire, nous utilisons et comparons plusieurs algorithmes de recherche heuristiques, dont certains inspirés de l'évolution naturelle, afin de concevoir des modèles de classification puissants, potentiellement capables de reproduire l'efficacité des processus cognitifs naturels. Les principes exposés dans ce mémoire, se sont montrés efficaces pour le modèle BAM et peuvent faire l'objet de recherches intéressantes, notamment pour l'amélioration du potentiel des modèles connexionnistes récurrents. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : mémoire associative bidirectionnelle, réseaux de neurones artificiels, classification, dynamique chaotique, catastrophe fronce.
232

Efficient generation of the ideals of a poset in Gray code order

Abdo, Mohamed January 2010 (has links) (PDF)
Pruesse et Ruskey ont présenté un algorithme pour la génération de leur code Gray pour les idéaux d'un poset (ensemble partiellement ordonné) où deux idéaux adjacents diffèrent par un ou deux éléments. Leur algorithme fonctionne en temps amorti de O(n) par idéal. Squire a présenté une récurrence pour les idéaux d'un poset qui lui a permis de trouver un algorithme pour générer ces idéaux en temps amorti de O(log n) par idéal, mais pas en code Gray. Nous utilisons la récurrence de Squire pour trouver un code Gray pour les idéaux d'un poset, où deux idéaux adjacents diffèrent par un ou deux éléments. Dans le pire des cas, notre algorithme a la même complexité que celle de l'algorithme de Pruesse et Ruskey et dans les autres cas, sa complexité est meilleure que celle de leur algorithme et se rapproche de celle de l'algorithme de Squire. Squire a donné une condition pour obtenir cette complexité. Nous avons trouvé une condition moins restrictive que la sienne. Cette condition nous a permis d'améliorer la complexité de notre algorithme. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Poset, Extension linéaire, Cycle hamiltonien, Code Gray, Algorithme, Complexité.
233

Algorithmes pour la détection de transferts horizontaux de gènes complets et partiels

Diallo, Alpha Boubacar 12 1900 (has links) (PDF)
Avec l'arrivée des données moléculaires vers la fin des années 70, nous avons assisté à la découverte de nouveaux mécanismes d'évolution primordiaux dont l'échange du matériel génétique entre les espèces. Un tel échange peut se faire horizontalement, quand l'organisme intègre le matériel génétique provenant d'un autre organisme qui n'est pas son descendant direct, ou verticalement, quand l'organisme reçoit du matériel génétique à partir de son ancêtre le plus proche. Le problème de la détection et de la classification des transferts horizontaux de gènes (THG) est parmi les plus ardus en bioinformatique. Dans cette thèse, nous décrivons cinq nouveaux algorithmes pour la détection de THGs complets ou partiels qui seront basés sur des comparaisons topologiques et métriques entre un arbre d'espèces et un arbre de gène inférés pour le même ensemble d'espèces. Ces algorithmes incluent l'algorithme de détection de THGs complets ainsi que ses versions interactive et consensus. Les deux algorithmes de détection de transferts partiels que nous avons proposés peuvent être vus comme une généralisation de l'algorithme de détection de transferts complets. Ils peuvent être utilisés pour identifier des gènes mosaïques. Nous présentons aussi dans cette thèse une version parallèle de l'algorithme de détection de THGs complets, ainsi qu'une plateforme pour la transformation semi-automatique de programmes bioinformatiques séquentiels en programmes parallèles. Une interface Web intégrant tous les programmes développés dans le cadre de ce projet doctoral a aussi été mise au point. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : algorithmes bioinformatiques, arbre phylogénétique, programmation parallèle, réseau réticulé, transfert horizontal de gènes (THG).
234

Introduction de non linéarités et de non stationnarités dans les modèles de représentation de la demande électrique résidentielle

Grandjean, Arnaud 10 January 2013 (has links) (PDF)
La problématique développée dans la thèse est d'estimer, dans une démarche prospective et dans un but d'anticipation, les impacts en puissance induits par les ruptures technologiques et comportementales qui ne font pas aujourd'hui l'objet de mesures dans les panels. Pour évaluer les modifications sur les appels de puissance du parc résidentiel engendrées par ces profondes transformations,un modèle paramétrique, bottom-up, techno-explicite et agrégatif est donc nécessaire. Celui-ci serait donc destiné à la reconstitution, de manière non tendancielle, de la courbe de charge électrique résidentielle. Il permettrait ainsi de conduire la simulation de différents scénarios d'évolution contrastés. L'élaboration d'un tel modèle constitue le sujet de ce doctorat.Pour répondre à cette problématique, nous proposons une méthode conceptuelle originale de reconstitution de courbe de charge. Sa mise en application centrée sur la génération de foisonnement d'origine comportementale a conduit à la modélisation d'un certain nombre de concepts. Ce travail a abouti à l'élaboration d'un algorithme stochastique destiné à représenter le déclenchement réalistedes appareils domestiques. Différents cas d'application ont pu être testés et les résultats en puissance ont été étudiés. Plus particulièrement pour analyser le foisonnement visible à un niveau agrégé, nous avons mis en place une méthodologie nouvelle basée sur une distance adaptée aux courbes de charge. Finalement, nous avons cherché à identifier des comportements réels d'usage des appareils. Pour cela, nous avons conduit différents travaux de classification de courbes de charge.
235

UNE MODÉLISATION ÉVOLUTIONNISTE DU LIAGE TEMPOREL

Meunier, David 19 October 2007 (has links) (PDF)
L'hypothèse du liage temporel par synchronie suscite un intérêt important en neurobiologie, car elle permet d'expliquer comment différentes structures du cerveau peuvent établir entre elles un lien fonctionnel, en rapport avec une fonction cognitive. Cependant, il n'existe pas de modèle permettant de faire communiquer différents groupes de neurones par le biais de leurs émissions. <br /><br />Nous avons développé un modèle de réseau de neurones impulsionnels, dont la topologie est modifiée par un algorithme évolutionniste. Le critère de performance utilisé pour l'algorithme évolutionniste est évalué par l'intermédiaire du comportement d'un individu contrôlé par un réseau de neurones impulsionnels, et placé dans un environnement virtuel. L'utilisation du neurone impulsionnel, ayant la propriété de détection de synchronie, oblige l'évolution à construire un système utilisant cette propriété au niveau global, d'où l'émergence de la synchronisation neuronale à large-échelle. Les propriétés topologiques et dynamiques du réseau de neurones ne sont pas prises en compte dans le calcul de la performance, mais sont étudiées a posteriori, en comparant les individus avant et après évolution. <br /><br />D'une part, grâce aux outils de la théorie des réseaux complexes, nous montrons l'émergence d'un certain nombre de propriétés topologiques, notamment la propriété de réseau ``petit-monde''. Ces propriétés topologiques sont similaires à celles observées au niveau de l'anatomie des systèmes nerveux en biologie. D'autre part, au niveau de la dynamique, nous établissons que la propriété de synchronisation neuronale à large-échelle, résultant de la présentation d'un stimulus, est présente chez les individus évolués. Pour ce faire, nous nous appuyons sur les outils classiquement utilisés en électrophysiologie, et nous les étendons pour pouvoir interpréter la grande quantité de données obtenue à partir du modèle. <br /><br />Le modèle montre que l'on peut construire des réseaux de neurones basés sur l'hypothèse du liage temporel en ayant recours à l'évolution artificielle, en se basant sur un critère de performance écologique, c.à.d. le comportement de l'individu dans son environnement. D'autre part, les outils développés pour l'analyse des propriétés du modèle peuvent être utilisés dans d'autres domaines, en premier lieu en électrophysiologie. En effet, à cause des progrès techniques sur les enregistrements électrophysiologiques, la quantité de données se rapproche singulièrement de celle issue du modèle.
236

Algorithmes approchés pour des problèmes d'ordonnancement multicritères de type job shop flexible et job shop multiressource

Vilcot, Geoffrey 19 November 2007 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre d'une collaboration industrielle avec la société Volume Software pour le développement du module d'ordonnancement du logiciel "DirectPlanning". Dans ce travail, nous étudions le problème de job shop flexible multicritère et le problème de job shop multiressource multicritère. Notre objectif est de déterminer une approximation du front de Pareto. Nous avons proposé des algorithmes de résolution approchés et plus particulièrement des algorithmes de recherche Tabou et des algorithmes génétiques. Nous avons proposé différentes versions de nos méthodes pour les deux problèmes considérés. Des expérimentations ont été réalisées et montrent les bonnes performances de nos algorithmes, à la fois d'un point de vue qualité des résultats et d'un point de vue de la rapidité des méthodes.
237

Architecture et Conception de Rétines Silicium CMOS : Application à la mesure du flot optique

Navarro, David 17 October 2003 (has links) (PDF)
Le développement des technologies sub-microniques a permis un regain d'intérêt pour les capteurs d'images CMOS, qui inondent aujourd'hui le marché des capteurs. Les approches conventionnelles pour la conception de machines de vision sont en général basées sur des architectures connectées à une caméra. L'approche proposée dans ce travail consiste à associer, dans un même circuit – une rétine CMOS -, les photocapteurs et des fonctions de pré-traitement de l'image, permettant ainsi de répartir et d'optimiser le traitement. Ces rétines ont des performances en vitesse, en intégration et en consommation meilleures que les solutions classiques (capteurs puis traitements logiciels et/ou matériels). Cette thèse porte plus précisément sur l'intégration d'un algorithme d'estimation du mouvement en transposant le calcul numérique fortement itératif en une structure de calcul électronique. Après avoir réalisé un circuit permettant d'acquérir des connaissances dans le domaine des capteurs d'images CMOS, nous avons conçu un circuit de vision estimant le mouvement. Cette estimation de mouvement est basée sur une méthode robuste de mise en correspondance de blocs de pixels, comprenant une phase de pré-codage des pixels suivi<br />d'une recherche de ce codage dans une fenêtre de destination potentielle. Cette approche est novatrice car elle propose une rétine CMOS pouvant traiter (électroniquement) des scènes fortement texturées, et à luminosité changeante, en s'appuyant sur une méthode jusqu'alors réservée aux approches numériques (FPGA, DSP) ou logicielles.
238

Etude et Exploitation des Réseaux de Neutralité dans les Paysages Adaptatifs pour l'Optimisation Difficile

Verel, Sébastien 12 December 2005 (has links) (PDF)
Le concept de paysage adaptatif a été introduit par S. Wright dans le domaine de la biologie de l'évolution dans les années 1930. Il est l'un des concepts pertinents pour modéliser l'évolution d'une population d'organismes. Dans le domaine de l'optimisation combinatoire par métaheuristiques, il est également utilisé et <br />permet de lier une description géométrique d'un problème d'optimisation avec la dynamique des algorithmes de recherche.<br />Deux géométries de paysage correspondant à deux dynamiques d'algorithme ont été principalement étudiées. La géométrie de paysage multimodale est liée à la présence d'optima locaux,<br />où la dynamique est une succession de marches adaptatives vers de meilleures solutions et de dégradations de performance. La géométrie des paysages adaptatifs neutres, mise en avant par la théorie de la neutralité en évolution moléculaire de Motoo Kimura,<br />est liée à la présence de plateaux ; la dynamique se caractérise alors par une dérive aléatoire entrecoupée de rares découvertes de solutions plus performantes. Cette thèse se propose d'approfondir <br />l'étude des paysages neutres dans le contexte de l'optimisation et de proposer de nouvelles métaheuristiques adaptées à ce type de paysages.<br /><br />La thèse se compose de quatre chapitres. Dans un premier chapitre,<br />nous présentons les principaux résultats concernant les paysages adaptatifs et plus particulièrement les paysages adaptatifs neutres.<br />Dans un deuxième chapitre, nous développons le concept d'ensemble de neutralité en introduisant la notion de 'nuage adaptatif' qui permet d'étudier la corrélation de performance entre solutions voisines et nous l'appliquons à la classe des paysages 'embarqués' qui regroupe les paysages NK et Max-SAT. Dans un troisième chapitre, nous résumons l'ensemble des mesures relatives aux réseaux de neutralité et nous proposons une nouvelle mesure. Une étude expérimentale est réalisée sur trois familles de paysages pour lesquelles la neutralité est ajustable et deux problèmes classiques de la littérature. Enfin, un nouvel algorithme de recherche adapté aux paysages neutres lié à la nouvelle mesure est proposé et évalué sur différents paysages neutres. Nous réalisons l'étude du paysage adaptatif massivement neutre<br />issu du problème d'apprentissage de la règle d'un automate cellulaire réalisant la tâche de classification par la densité, afin d'en améliorer les métaheuristiques connues existantes.
239

Etude du comportement mécanique de patchs composites utilisés pour le renforcement de structures métalliques aéronautiques

Mathias, Jean-Denis 30 September 2005 (has links) (PDF)
Des patchs en matériaux composites sont classiquement utilisés dans l'aéronautique pour la réparation des structures métalliques présentant des dommages de<br />type fissures, criques ou impacts. Une alternative à la réparation de ces structures consiste à les renforcer préventivement, avant que les défauts n'apparaissent. Le<br />contexte de ce travail est celui de la maintenance préventive de structures métalliques aéronautiques par renforts composites, dans le but de retarder l'apparition ou la propagation de fissures.<br />La conception des renforts nécessite l'utilisation d'outils spécialisés pour définir les caractéristiques optimales du patch : géométrie, nombre de plis unidirectionnels,<br />orientation des plis les uns par rapport aux autres, positionnement autour de la zone à soulager... Pour cela, un programme d'optimisation de patchs par algorithme<br />génétique a été écrit. Il est couplé à un logiciel de calcul par éléments finis : Ansys.<br />L'algorithme génétique mis en oeuvre a permis de déterminer des caractéristiques de patchs dont la géométrie extérieure est définie par une courbe spline fermée, ceci afin de réduire de manière optimale les contraintes mécaniques dans une zone donnée, et<br />ce pour différents types de sollicitations.<br />De nombreuses d´efaillances des assemblages collés patch/substrat sont liées à des concentrations de contraintes dans la colle dues à l'existence d'une zone de<br />transfert progressif d'effort du substrat vers le patch. Des approches unidirectionnelles du transfert d'effort sont classiquement utilisées dans la littérature. Elles ne<br />tiennent cependant pas compte d'effets bidimensionnels comme la différence des coefficients de Poisson qui peut exister entre le substrat et le composite. A partir des<br />équations d'équilibre, des modèles analytique et numérique bidimensionnels ont donc été développés. Des phénomènes de couplages bidimensionnels ont ainsi bien été mis en évidence.<br />Parallèlement, des essais de traction uniaxiale ont été réalisés sur des éprouvettes en aluminium renforcées par des patchs en carbone/époxyde. La méthode de la grille a été utilisée pour mesurer des champs cinématiques en surface du patch composite.<br />Cette méthode a permis d'étudier expérimentalement le transfert des efforts entre le substrat et le renfort suivant les deux dimensions du problème et de comparer les résultats obtenus avec les différents modèles développés au préalable.
240

Classification paramétrique robuste partiellement supervisée en reconnaissance des formes

Saint-Jean, Christophe 17 December 2001 (has links) (PDF)
L'apprentissage est une étape importante d'un processus de reconnaissance des formes pour<br />la décision. On distingue généralement l'approche supervisée de l'approche non supervisée suivant<br />que l'on dispose ou non d'une expertise des données. Dans ce travail, nous étudions le cas<br />intermédiaire d'une classification semi-supervisée où l'on dispose d'un ensemble mixte de données<br />numériques.<br />Certains éléments à traiter diffèrent du modèle a priori supposé des données et peuvent perturber<br />le processus d'apprentissage. Les méthodes robustes de classification visent à limiter l'influence<br />de ces données aberrantes soit en les modélisant explicitement, soit en utilisant des estimateurs<br />robustes. La première partie de ce travail nous a permis d'étudier la notion de robustesse à<br />travers divers algorithmes de classification. Un intérêt particulier est porté à l'utilisation des<br />M-estimateurs de Huber dans le cadre de l'estimation par le principe du maximum de vraisemblance.<br />La seconde partie de cette étude est consacrée à l'état de l'art des principales méthodes de<br />classification semi-supervisée. Nous montrons que celles-ci reposent sur la modification de la<br />fonctionnelle réalisant la classification en introduisant un terme d'accord avec la mesure d'appartenance<br />fixée par l'expert.<br />Sur la base de ces deux domaines, nous proposons un algorithme robuste de classification partiellement<br />supervisée introduisant une option de rejet. Les classes sont modélisées par un mélange<br />de deux composantes dont les paramètres sont estimées par un calcul itératif robuste. Le rejet<br />est effectué par une fonction d'affectation produisant une classe additionnelle dédiée aux points<br />aberrants. Les résultats obtenus sur divers jeux de données artificiels et réels nous ont permis de<br />valider notre approche.

Page generated in 0.0351 seconds