• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Dérivation numérique : synthèse, application et intégration

Dridi, Mehdi 13 December 2011 (has links) (PDF)
Les algorithmes de dérivation sont des méthodes numériques permettant d'estimer la dérivée d'un signal à partir d'une mesure de celui-ci. Dans la discipline de l'automatique, et comme il a été repris dans une large part des travaux de la communauté automaticienne, ces méthodes fournissent une aide précieuse dans les problèmes de commande non linéaire dans la mesure où celles-ci permettent de fournir, par dérivation de signaux mesurables, une estimation de signaux intervenant dans le calcul de la commande. Les approches les plus connues au problème, sont basées sur les observateurs. Dans celles-ci, le signal à dériver est modélisé comme la sortie d'un système dynamique donné dont l'entrée est un signal canonique connu. Les dérivées du signal sont alors obtenues par observation de l'état de son modèle. La plupart de ces techniques prennent en compte, implicitement ou explicitement, des hypothèses, stochastiques ou déterministes, propres sur le signal à dériver et/ou sur la perturbation l'affectant. Dans ce travail, on s'intéresse à l'étude et l'application des différentes approches linéaires et non linéaires d'observation dans la synthèse d'algorithmes de dérivation. Dans un cadre linéaire, différentes approches de filtrage et d'observation (grand gain, Kalman, H2) sont alors introduites et appliquées pour l'estimation de la dérivée d'un signal mesuré. Une proposition d'approche alternative d'observation linéaire a été introduite et appliquée à la dérivation. Dans celle-ci, un observateur est mis en oeuvre par optimisation d'une norme H¥ . Le problème de synthèse d'observateurs est alors formulé comme un problème d'optimisation sous contraintes LMI. Cette approche présente l'intérêt de la possibilité de considérer une norme H¥ pondérée dans la synthèse de l'observateur. Dans ce cas, il est possible d'imposer un gabarit particulier sur la Densité Spectrale de Puissance du signal d'erreur. Une investigation supplémentaire est également apportée quant à la possibilité de considérer des structures d'observateurs alternatives à la structure Luenberger classique afin de s'affranchir de cette contrainte structurelle. Dans un cadre non linéaire, les observateurs par modes glissants fournissent une alternative aux observateurs linéaires dans l'application à la dérivation. Ces méthodes présentent l'intérêt de leur robustesse avérée et de pouvoir apporter une amélioration potentielle de la précision des algorithmes. De plus, celles-ci permettent l'introduction d'une notion de convergence inconnue dans un cadre linéaire : la convergence en temps fini. Du fait de leur non linéarité, la procédure de réglage de algorithmes qui en découlent est assez délicate et dépend, surtout, de la nature du signal à dériver et du niveau de bruit sur celui-ci. Ainsi, un réglage reste optimal pour un signal donné mais ne garantit pas le même niveau de performances pour un autre. Dans ce cas, des approches d'adaptation en temps réel des gains de réglage des algorithmes ont été introduites afin de s'affranchir de cette difficulté de réglage ou, du moins, la rendre moins complexe. Une version adaptative d'un algorithme de dérivation par modes glissants classique a été alors proposée. Cependant, notre approche dans l'étude du problème ne s'est pas réservée uniquement aux fondements théoriques des méthodes de dérivation. Ainsi, suite au travail théorique décrit précédemment, un travail de nature pratique et expérimental a été effectué. L'objectif étant de mettre en place un " capteur logiciel " embarqué sur cible numérique à faible coût permettant l'estimation des variables d'état d'un système mécatronique, par dérivation de signaux mesurés, en vue de sa commande. Pour se faire, une étude préalable quant aux effets des contraintes technologiques d'implémentation (résolution de calcul, précision des organes de conversion,...) sur les performances des algorithmes de dérivation a été présentée. On s'est ensuite intéressé à la mise en œuvre des algorithmes de dérivation sur un circuit numérique et la validation de la solution en boucle ouverte pour l'estimation de la dérivée de différents signaux. Enfin, la carte de dérivation ainsi obtenue a été introduite dans une boucle de commande non linéaire d'un système électropneumatique. Dans cette étape, le dérivateur numérique fait office de capteur logiciel pour l'estimation de certaines grandeurs intervenant dans le calcul de la commande. Des résultats comparatifs entre différents algorithmes et différentes trajectoires de consigne on été alors présentés.
192

Ingénierie Formelle de Domaine: Des Spécifications à la Validation

Mashkoor, Atif 12 July 2011 (has links) (PDF)
Le thème principal de cette recherche est d'étudier et développer des techniques pour la modélisation des systèmes où la sécurité est critique. Cette thèse est focalisé sur l'étape de la spécification du domaine où de tels systèmes vont fonctionner, et de sa validation. La contribution de cette thèse est double. D'abord, nous modélisons le domaine des transports terrestres, un bon candidat pour cette étude en raison de sa nature critique vis-à-vis de la sécurité, dans le cadre formel de B événementiel et proposent quelques directives pour cette activité. Ensuite, nous présentons une approche, basée sur les techniques de l'animation et des transformations, pour la validation par étapes des spécifications formelles.
193

Recalage flexible de modèles moléculaires dans les reconstructions 3D de microscopie électronique

Goret, Gael 26 September 2011 (has links) (PDF)
Aujourd'hui, la cristallographie de macromolécules produit couramment des modèles moléculaires à résolution atomique. Cependant, cette technique est particulièrement difficile à mettre en œuvre, dans le cas de complexes de taille importante. La microscopie électronique permet, elle, de visualiser des particules de grande taille, dans des conditions proches de celles in vivo. Cependant, la résolution des reconstructions tridimensionnelles obtenues exclut, en général, leur interprétation directe en termes de structures moléculaires, étape nécessaire à la compréhension des problèmes biologiques. Il est donc naturel d'essayer de combiner les informations fournies par ces deux techniques pour caractériser la structure des assemblages macromoléculaires. L'idée est de positionner les modèles moléculaires déterminés par cristallographie à l'intérieur de reconstructions 3D issues de la microscopie électronique, et de comparer la densité électronique associée à la reconstruction 3D avec une densité électronique calculée à partir des modèles. Le problème numérique réside dans la détermination et l'optimisation des variables qui spécifient les positions des modèles, considérés comme des corps rigides, à l'intérieur de l'assemblage. Cette idée simple a donné lieu au développement d'une méthode appelée recalage. Ce travail de thèse a eu pour but de fournir aux biologistes un outil, basé sur la méthode du recalage, qui leurs permette de construire des modèles pseudo-moléculaires associés aux assemblages produits par microscopie électronique. Le logiciel issu de ce travail, nommé VEDA est un environnement graphique convivial, intégrant la possibilité de recalage flexible, et un moteur de calcul performant (calcul rapide, traitement de symétries complexes, utilisation de grands volumes, ...). Testé sur des dizaines de cas réels, VEDA est aujourd'hui pleinement fonctionnel et est utilisé par un nombre croissant de chercheurs, en France et à l'étranger qui lui reconnaissent tous facilité d'utilisation, stabilité, rapidité et qualité des résultats.
194

Une infrastructure pour l'optimisation de systèmes embarqués évolutifs à base de composants logiciels

Navas, Juan 06 May 2011 (has links) (PDF)
Concernant la partie logicielle des systèmes embarqués, on constate le besoin d'un modèle de la structuration du logiciel qui facilite le processus de développement, la capacité de faire évoluer le comportement du système lors de son exécution, afin de s'adapter aux changements de son environnement, et la prise en compte des limitations des ressources physiques des plates-formes d'exécution. L'utilisation de composants logiciels est une approche de conception qui, via l'abstraction des détails techniques, facilite la gestion de la complexité du logiciel. La question que nous nous posons est: comment les composants doivent être développés de façon à satisfaire les exigences liées aux fortes contraintes physiques et au besoin d'évolution du logiciel ? Pour y répondre, nous introduisons a notion de réification de composant. Une réification est une collection de données et de comportements qui encapsulent des aspects du composant à un moment précis de son cycle de vie. Nous proposons ensuite des techniques d'optimisation pour la génération du code "glue" qui assure l'interopérabilité des composants, afin de satisfaire les contraintes liées aux ressources limitées. Elles rendent possible la définition de niveaux d'optimisation pour chaque instance des entités du modèle à composants, ce qui nous permet de régler la performance du logiciel en fonction de ses besoins (extra) fonctionnels. Ensuite, nous définissons quatre profils d'évolution en fonction des caractéristiques d'évolution de chaque entité du modèle, et nous mettons en place des infrastructures d'évolution adaptées aux besoins d'évolution du système, couplées avec les exigences de performance du logiciel.
195

Optimisation de JPEG2000 sur système sur puce programmable

Aouadi, Imed 01 May 2005 (has links) (PDF)
Récemment le domaine du traitement de l'image, de la vidéo, et l'audio a connu plusieurs évolutions importantes au niveau des algorithmes et des architectures. L'une de ces évolutions est l'apparition du nouveau standard ISO/IEC de compression d'image JPEG2000 qui succède à JPEG. Ce nouveau standard présente de nombreuses fonctionnalités et caractéristiques qui lui permettent d'être adapté à une large panoplie d'applications. Mais ces caractéristiques se sont accompagnées d'une complexité algorithmique beaucoup plus élevée que JPEG et qui le rend très difficile à optimiser pour certaines implémentations ayant des contraintes très sévères en terme de surface, de temps d'exécution ou de consommation d'énergie ou de l'ensemble de ces contraintes. L'une des étapes clé dans le processus de compression JPEG2000 est le codeur entropique qui constitue à lui seul environ 70% du temps de traitement global pour la compression d'une image. Il est donc essentiel d'analyser les possibilités d'optimisation d'implémentations de JPEG2000. Les circuits FPGA sont aujourd'hui les principaux circuits reconfigurables disponibles sur le marché. S'ils ont longtemps été utilisés uniquement pour le prototypage des ASIC, ils sont aujourd'hui en mesure de fournir une solution efficace à la réalisation matérielle d'applications dans de nombreux domaines. Vu le progrès que connaît l'industrie des composants FPGA du point de vue capacité d'intégration et fréquence de fonctionnement, les architectures reconfigurables constituent aujourd'hui une solution efficace et compétitive pour répondre aussi bien aux besoins du prototypage qu'à ceux des implémentations matérielles. Dans ce travail nous proposons une démarche pour l'étude des possibilités d'implémentations de JPEG2000. Cette étude a débuté avec l'évaluation d'implémentations logicielles sur plateformes commerciales. Des optimisations logicielles ont été ajoutées en utilisant des librairies SIMD spécialisées exploitant du parallélisme à grain fin. Suite à cette première étude on a réalisé une implémentation matérielle d'un bi codeur entropique sur FPGA qui a servi comme coprocesseur pour deux plateformes distinctes l'une étant une machine hôte et l'autre un système industriel embarqué. Suite à cette étape nous avons fait évoluer l'implémentation en passant à une deuxième approche qui est l'approche système sur puce programmable. Dans cette dernière partie nous avons effectué le partitionnement matériel/logiciel du codeur entropique sur FPGA, puis une implémentation multi codeur a été réalisée sur FPGA et utilisée comme coprocesseur sur puce pour la création d'un système sur puce programmable. Ces différents travaux ont permis de couvrir une partie de l'espace des applications que JPEG2000 peut cibler. En même temps ces implémentations donnent une vue globale sur les possibilités des implémentations de JPEG2000 ainsi que leurs limites. De plus cette étude représente un moyen pour décider de l'adéquation architecture application de JPEG2000.
196

L'implication des entreprises aux logiciels libres

Eilhard, Jan 14 May 2010 (has links) (PDF)
La participation des entreprises aux logiciels libres touche des domaines différents aux sciences économiques et sciences sociales. Elle est parmi d'autres une expérience naturelle pour la production des biens publics, pour l'innovation collective, pour les technologies disruptives, pour l'externalisation des technologies ou pour les organisations décentralisées. Cette thèse se concentre sur la production des biens publics, l'innovation collective et l'externalisation des technologies. Dans notre analyse, nous utilisons une base de données de 10 000 logiciels libres trouvables sur SourceForge et lions l'information des développeurs aux profils académiques, salariés et bénévoles.
197

Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes

Ros, Raymond 21 December 2009 (has links) (PDF)
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
198

Algorithme de partitionnement appliqué aux systèmes dynamiquement reconfigurables en télécommunications

Cardoso de Souza, Daniel 13 December 2006 (has links) (PDF)
Cette thèse a pour but de proposer un algorithme de partitionnement matériel/logiciel optimisé. On travaille sur l'hypothèse de que quelques caractéristiques spécifiques à certains algorithmes déjà publiés puissent être combinées de façon avantageuse, menant à l'amélioration d'un algorithme de partitionnement de base et, par conséquence, des systèmes hétérogènes générés par cet algorithme. L'ensemble d'optimisations proposées pour être réalisées dans ce nouvel algorithme consiste en : généralisation des architecturescible candidates avec l'ajout de FPGA's pour le partitionnement, considération précise des coûts et puissances des fonctions allouées en matériel, ordonnancement de systèmes au matériel dynamiquement reconfigurable, et prise en compte de plusieurs alternatives d'implémentation d'un noeud d'application dans un même processeur. Ces optimisations sont implémentées en versions successives de l'algorithme de partitionnement proposé, lesquelles sont testées avec deux applications de traitement du signal. Les résultats du partitionnement démontrent l'effet de chaque optimisation sur la qualité du système hétérogène obtenu.
199

Synthèse des communications dans un environnement de génération de logiciel embarqué pour des plateformes multi-tuiles hétérogènes

Chagoya-Garzon, A. 03 December 2010 (has links) (PDF)
Dans cette étude, nous nous intéressons aux outils de génération de logiciel embarqué ciblant des plateformes multi-tuiles hétérogènes. Dans ces plateformes, un système sur puce multiprocesseurs hétérogène (ou tuile) est répliqué et connecté par des réseaux externes à la tuile, extensibles et commutés par paquets. Ces outils se basent sur une représentation abstraite de l'architecture, de l'application et du déploiement des éléments applicatifs sur les éléments de l'architecture. Programmer de zéro ces architectures complexes n'est pas concevable, cependant nous ne pouvons nous contenter des environnements de programmation embarqués classiques en raison de l'hétérogénéité de la tuile de base, qui embarque des RISCs, des DSPs et une infrastructure interne à la tuile non uniforme et complexe. L'un des enjeux dans ce contexte est de masquer cette complexité au programmeur de l'application pour qu'il puisse se concentrer sur l'écriture de son programme sans se soucier dans un premier temps de son déploiement sur la plateforme cible. L'une des difficultés des systèmes multi-tuiles est le nombre de chemins de communication que ceux-ci proposent, c'est pourquoi nous nous concentrons dans ce manuscrit sur la gestion (transparente pour le programmeur) des communications dans notre flot. Nous définissons donc les informations minimales à inclure dans le modèle d'entrée du flot pour arriver à synthétiser les communications de l'application. Grâce à ces informations, nous arrivons à puiser les composants logiciels de communication adéquats, qui se présentent sous la forme de pilotes d'un système d'exploitation. Cette sélection n'est pas suffisante, il faut ensuite spécialiser ces composants pour chaque canal de communication de l'application afin d'arriver à un résultat correct. En raison du nombre d'unités de calcul de la plateforme ciblée et du nombre de canaux des applications considérées, une automatisation totale du flot est requise, nous abordons donc les difficultés que cela représente en raison du processus de compilation croisé mis en jeu par le flot, et la solution que nous avons retenue pour arriver à un flot fonctionnel. Trois applications (dont une appartenant au monde du calcul de haute performance), écrites par des programmeurs ne maîtrisant pas la plateforme multi-tuiles choisie, ont été soumises à notre flot, qui a généré de manière correcte plusieurs déploiements de ces applications.
200

Modélisation et test de mécanismes de sécurité dans des applications internet

Mouelhi, Tejeddine 22 September 2010 (has links) (PDF)
Les travaux effectués dans de cadre de cette thèse s'intéressent à la problématique du test de sécurité des applications, en considérant la validation des mécanismes de sécurité interne à un système d'une part, puis la sécurité des interfaces web d'autre part. Pour la partie interne, nous avons comparé, dans un premier temps, l'utilisation du test fonctionnel et des tests de sécurité pour valider les mécanismes implémentant une politique de contrôle d'accès. Dans ce cadre, l'analyse de mutation a été adaptée pour qualifier et évaluer les tests. Nous avons ensuite proposé trois méthodologies pour tester les mécanismes de contrôle d'accès: - utilisation du pair-wise pour générer les tests de sécurité, - sélection et transformation des tests fonctionnels en tests de sécurité - détection de mécanismes de sécurité cachés qui nuisent à la flexibilité et l'évolutivivité du système. Concernant le test des interfaces web, visant non seulement à tester le code validant les entrées de l'utilisateur mais aussi protéger les applications web, nous avons proposé une nouvelle approche qui tire profit du test par contournement (bypass-testing) et qui permet de protéger les applications web contre ce type d'attaques. Cette approche a été concrétisée dans un outil permettant à la fois l'audit et la sécurisation des applications web. L'ensemble de ces travaux a conduit à réfléchir à de nouvelles méthodologies de développement garantissant une meilleure qualité et une meilleure testabilité des mécanismes de contrôle d'accès. L'ingénierie des modèles (IDM) a été exploitée pour automatiser la spécification et le déploiement semi-automatisé des politiques de contrôle d'accès, et offrir par analyse de mutation un moyen de certification générique des tests de sécurité. Enfin, la composition de modèles permet d'automatiser l'intégration des mécanismes de sécurité, et surtout la reconfiguration automatique du système en cas d'évolution de la politique de sécurité.

Page generated in 0.0469 seconds