• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 719
  • 349
  • 139
  • 1
  • 1
  • Tagged with
  • 1224
  • 835
  • 285
  • 230
  • 217
  • 211
  • 208
  • 203
  • 195
  • 175
  • 162
  • 145
  • 143
  • 137
  • 134
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

INCREMENT une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûreté

Sannier, Nicolas 13 December 2013 (has links) (PDF)
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d'exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu.
332

Le rôle de l'Université Ouverte al-Quds (UOQ) dans la formation de la nouvelle élite palestinienne

Hodali, Imad 04 December 2013 (has links) (PDF)
A partir de 1948 la société palestinienne est déstabilisée suite à la guerre qui voit la perte de la Palestine historique. La grande majorité des Palestiniens se retrouve dispersée dans les pays de la région et au-delà de la Méditerranée. Aussi l'élite ancienne construite à partir de fondements religieux, familiaux ou de richesses foncières se retrouve elle aussi expulsée de ses terres. Elle perd donc ses positions de privilèges, désemparée et désorientée, elle ne reviendra plus jamais au devant de la scène nationale palestinienne. Ce sont les hommes qui dirigeront la lutte pour la récupération de la Palestine de 1948, ensuite et à partir de 1967 contre l'occupation de la Cisjordanie et de la bande de Gaza (partie de la Palestine historique) d'abord sous forme de lutte armée ensuite par la diplomatie et la politique de négociations, qui deviennent les nouvelles figures sur la scène politique palestinienne. Ils sont originaires non de l'ancienne bourgeoisie religieuse et familiale mais de la classe moyenne des villes et des zones rurales qui vont recruter dans les camps de réfugiés les futurs combattants. Ce sont les nouveaux dirigeants. C'est un processus qui a commencé dès la moitié des années 1960 pour se consolider avec la création de partis et mouvements palestiniens opérant dans les divers pays d'accueil de la région. Cette nouvelle élite se conforme aux changements et aléas de la diplomatie internationale et d'un rapport de force inégal face à Israël tout au long du conflit israélo-palestinien. Pour comprendre l'évolution des élites palestiniennes il fallait donc adopter l'approche historique des événements et faits marquants touchant le peuple palestinien depuis 1948 jusqu'à l'après-Oslo (1993) ; vingt ans d'Autorité Nationale Palestinienne caractérisée par une souveraineté limitée aux principales villes de la Cisjordanie et de la bande de Gaza, au contraire de ce qu'avaient stipulé les Accords de 1993 : ceux-ci devaient progresser vers le statut définitif des Territoires occupés en 1967. C'est dans ces territoires occupés depuis 1967, en Cisjordanie et dans la bande de Gaza, que se situe donc notre terrain de recherche. À partir de 1993 les dirigeants rapatriés de l'exil formant les membres dirigeants de l'Autorité nationale, vont favoriser les initiatives de palestiniens, en particulier, les figures proéminentes des villes, dans la création d'établissements universitaires. Ceci est entrepris non seulement pour répondre aux besoins d'éducation d'une population jeune dans un acte de résilience face à l'occupation, mais aussi pour répondre aux exigences du projet de construction des institutions du futur Etat à l'intérieur des Territoires de 1967. De nouvelles compétences, de nouveaux savoir-faire devenaient nécessaires dans cette nouvelle situation du post-Oslo où, en parallèle à la lutte politique, l'enseignement supérieur devenait un enjeu vital pour l'existence de la société palestinienne dont l'ambition est d'avoir une place à part entière parmi les nations modernes du monde. D'autres figures émergeront à partir de ces universités pour former une nouvelle et différente élite qui gouvernera dans un contexte de règles démocratiques où le pouvoir ne sera pas exclusivement dans la main de quelques dirigeants. L'OLP, dès 1990, va créer une Université pour tous, l'Université Ouverte Al-Quds (l'UOQ), se basant sur le mode ouvert et à distance. C'était un choix devenu urgent pour surmonter les difficultés et les entraves qu'imposait l'occupation. L'UOQ connaîtra un grand succès comme en témoigne le nombre grossissant de ses inscrits dans un contexte de tension. Plus tard et malgré son offre limitée dans les disciplines d'études, elle va attirer les jeunes à la recherche d'un métier, les adultes pour poursuivre des études inachevées, les femmes pour la proximité de ses centres d'études.
333

Composition and interoperability for external domain-specific language engineering / Composition et interopérabilité pour l'ingénierie des langages dédiés externes

Degueule, Thomas 12 December 2016 (has links)
Development and evolution of Domain-Specific Languages (DSLs) is becoming recurrent in the development of complex software-intensive systems. However, despite many advances in Software Language Engineering (SLE), DSLs and their tooling still suffer from substantial development costs which hamper their successful adoption in the industry. We identify two main challenges to be addressed. First, the proliferation of independently developed and constantly evolving DSLs raises the problem of interoperability between similar languages and environments. Second, since DSLs and their environments suffer from high development costs, tools and methods must be provided to assist language designers and mitigate development costs. To address these challenges, we first propose the notion of language interface. Using language interfaces, one can vary or evolve the implementation of a DSL while retaining the compatibility with the services and environments defined on its interface. Then, we present a mechanism, named model polymorphism, for manipulating models through different language interfaces. Finally, we propose a meta-language that enables language designers to reuse legacy DSLs, compose them, extend them, and customize them to meet new requirements. We implement all our contributions in a new language workbench named Melange that supports the modular definition of DSLs and the interoperability of their tooling. We evaluate the ability of Melange to solve challenging SLE scenarios. / Development and evolution of Domain-Specific Languages (DSLs) is becoming recurrent in the development of complex software-intensive systems. However, despite many advances in Software Language Engineering (SLE), DSLs and their tooling still suffer from substantial development costs which hamper their successful adoption in the industry. We identify two main challenges to be addressed. First, the proliferation of independently developed and constantly evolving DSLs raises the problem of interoperability between similar languages and environments. Second, since DSLs and their environments suffer from high development costs, tools and methods must be provided to assist language designers and mitigate development costs. To address these challenges, we first propose the notion of language interface. Using language interfaces, one can vary or evolve the implementation of a DSL while retaining the compatibility with the services and environments defined on its interface. Then, we present a mechanism, named model polymorphism, for manipulating models through different language interfaces. Finally, we propose a meta-language that enables language designers to reuse legacy DSLs, compose them, extend them, and customize them to meet new requirements. We implement all our contributions in a new language workbench named Melange that supports the modular definition of DSLs and the interoperability of their tooling. We evaluate the ability of Melange to solve challenging SLE scenarios.
334

Conception de nouveaux biocatalyseurs par fusion de domaines catalytiques / Design ofbiocatalysts by domain fusion and scaffolding

Rabeharindranto, Mamy Hery Ny Aina 08 July 2019 (has links)
La production microbienne de molécules d'intérêt pourrait être améliorée par des stratégies d'ingénierie du vivant. L'ingénierie enzymatique joue un rôle central dàns la conception d'organismes hôtes efficaces car l'efficacité de la voie dépend en premier lieu de l'efficacité des enzymes. Aujourd'hui, il est utile de savoir quelles conceptions d'enzymes synthétiques sont efficaces et quels paramètres doivent être testés pour les caractériser. La colocalisation spatiale d'enzymes à l'intérieur de la voie métabolique pourrait améliorer la production de la molécule d'intérêt finale en permettant une biotransformation rapide des intermédiaires de la voie de biosynthèse. Des protéines multidomaines regroupant plusieurs activités enzymatiques sont décrites dans la littérature. Ces travaux ont permis la création de fusions synthétiques d'enzymes caroténogéniques pour la production de bêta-carotène chez Saccharomyces cerevisiae. Différents types de fusions et de configurations enzymatiques ont été testés. L'étude a permis ia création d'une fusion enzymatique tripartite efficace produisant deux fois moins d'intermédiaires et deux fois plus de bêta-carotène. Les mesures précises de la concentration de chaque caroténoïde, associées à la quantification des enzymes, ont permis de caractériser l'efficacité de chaque enzyme synthétique. D'autres stratégies de colocalisation spatiale d'enzymes ont également été testées en utilisant des domaines d'interaction tels que la cohesinedockérine ou la protéine oligomériques CcmK2. Certaines enzymes caroténogéniques préservent leur fonctionnalité au sein de ces configurations. Des systèmes enzymatiques construites modifient le flux métabolique des caroténoïdes et produisent des caroténoïdes différents de ceux des enzymes naturelles. Un contrôle plus affiné des activités enzymatiques pourrait permettre un contrôle précis de la nature du caroténoïde final produit / Microbial production of molecules of interest can be improved by severa! engineering strategies. Enzymatic engineering has a central role in the conception of efficient host because pathway's efficiency depends in first place on the efficiency of the enzymes. Knowing which synthetic enzymes conceptions are efficient and knowing to characterize the best candidates are essential. Enzyme colocalisation inside metabolic pathway might improve the production of final molecule of interest by allowing rapid biotransformation of intermediates of the pathway. Multidomain proteins regrouping severa! enzymatic activities are described in the literature. This work has focused in part on the creation of synthetic fusion of sorne carotenogenic enzymes for the production of beta carotene in Saccharomyces cerevisiae. Different types of enzymatic fusions and configurations have been tested and. characterized. The study allowed the creation of an efficient tripartite enzyme. fusion which produces two times Jess intermediates and two times more beta carotene. Precise measurement of each caro teno id' s concentration coupled with quantification of enzymes allows the characterization of the efficiency of each synthetic enzyme. Other strategies for enzyme spatial co localisation have also been tested using domains of interaction like cohesin-dockerin or the oligomeric protein CcmK2. Sorne carotenogenic enzymes are still functional using those configurations. Sorne of the enzymatic systems modify the metabolic flow ofcarotenoids and produce carotenoids different from the natural systems. Sorne strategies have changed the metabolic flux of carotenoids inside the pathway. Interestingly, a fine control of activity of enzyme might allow a fine control of the nature of the final carotenoid
335

Étude des stratégies utilisées par les étudiantes et les étudiants du programme de génie électrique de l'Université de Sherbrooke en situation d'apprentissage par problèmes

Lefebvre, Nathalie January 2008 (has links)
L'apprentissage par problèmes (APP) est une méthode pédagogique innovante utilisée à l'échelle du programme de génie électrique de l'Université de Sherbrooke. La présente recherche vise à identifier les stratégies d'apprentissage et d'étude utilisées par les étudiants de ce programme. Des observations en classe et la passation d'un questionnaire sont les outils méthodologiques qui ont été utilisés dans cette étude. Les objectifs poursuivis impliquent la description des stratégies utilisées par les étudiants lors de trois unités d'APP, en considérant les effets possiblement associés au groupe d'appartenance et aux tuteurs responsables de l'encadrement. Cette recherche vise également à identifier les perceptions des étudiants du programme de génie électrique concernant les stratégies utilisées lors de trois unités d'APP. Cette recherche vise enfin à comparer les perceptions des étudiants quant à l'utilisation de stratégies dans le cadre de la version traditionnelle par rapport aux perceptions des apprenants inscrits dans la version innovante du programme.
336

Chargement dynamique par composants pour réseaux de capteurs adaptables

Malo, Alexandre January 2013 (has links)
L'utilisation des réseaux de capteurs sans fil (RCSF) croît dans plusieurs domaines, dont celui des espaces intelligents. Dans un espace intelligent, les RCSF sont utilisés puisque les noeuds qui les composent se dissimulent dans l'environnement et consomment très peu d'énergie. Pour l'installation, la maintenance et la gestion des contextes, il est nécessaire de pouvoir reprogrammer un, noeud sans avoir à le redémarrer. Ce projet de recherche vise l'amélioration de la reprogrammation des RCSF en utilisant l'ingénierie logicielle basée sur les composants (ILBC). En utilisant un cadriciel hybride de composants et un format exécutable allégé, les composants dynamiques deviennent utilisables à moindres coûts. Les résultats obtenus lors de ces travaux ont été publiés dans un article de journal. Les travaux de ce projet se divisent en deux volets. Le premier volet est l'optimisation des cadriciels dynamiques de composants. Le problème est que ces derniers demandent trop de ressources et ne sont pas envisageables pour les RCSF. Afin de diminuer la surcharge en taille de l'utilisation de composants dynamiques, un concept de cadriciel hybride de composants' est proposé. Pour valider ce concept, le cadriciel NodeCom est créé et requiert aussi peu de mémoire que Contiki. NodeCom possède un noyau minimal qui est statique alors que les autres composants peuvent être statiques ou dynamiques. Le deuxième volet est l'optimisation de la reprogrammation adaptée aux RCSF avec l'ILBC. C'est en compressant. le format de fichiers exécutable qui contint les composants que la reprogrammation est optimisée. Le chargement dynamique utilisé est accéléré et la consommation énergétique du transfert de composants est diminuée. C'est le format ELF qui est modifié pour partager les composants dynamiques. Pour réduire sa taille, plusieurs sections et symboles peuvent être supprimés en raison des contraintes imposées par l'utilisation de l'ILBC. Puisque les RCSF utilisent majoritairement des microcontrôleurs 8 bits ou 16 bits, les métadonnées 32 bits du format ELF sont converties. La résultante de ces modifications est le format de composants ComELF qui permet d'obtenir des compressions de près de 50 %. À ce format, une description des composants est finalement ajoutée pour permettre une gestion automatique du chargement dynamique.
337

Sources of contrast and acquisition methods in functional MRI of the Human Brain

Denolin, Vincent 08 October 2002 (has links)
<p align="justify">L'Imagerie fonctionnelle par Résonance Magnétique (IRMf) a connu un développement important depuis sa découverte au début des années 1990. Basée le plus souvent sur l'effet BOLD (Blood Oxygenation Level Dependent), cette technique permet d'obtenir de façon totalement non-invasive des cartes d'activation cérébrale, avec de meilleures résolutions spatiale et temporelle que les méthodes préexistantes telles que la tomographie par émission de positrons (TEP). Facilement praticable au moyen des imageurs par RMN disponible dans les hôpitaux, elle a mené à de nombreuses applications dans le domaine des neurosciences et de l'étude des pathologies cérébrales.</p> <p align="justify">Il est maintenant bien établi que l'effet BOLD est dû à une augmentation de l'oxygénation du sang veineux dans les régions du cerveau où se produit l'activation neuronale, impliquant une diminution de la différence de susceptibilité magnétique entre le sang et les tissus environnants (la déoxyhémoglobine étant paramagnétique et l'oxyhémoglobine diamagnétique), et par conséquent un augmentation du signal si la méthode d'acquisition est sensible aux inhomogénéités de champ magnétique. Cependant, il reste encore de nombreuses inconnues quant aux mécanismes liant les variations d'oxygénation, de flux et de volume sanguin à l'augmentation de signal observée, et la dépendance du phénomène en des paramètres tels que l'intensité du champ, la résolution spatiale, et le type de séquence de RMN utilisée. La première partie de la thèse est donc consacrée à l'étude de l'effet BOLD, dans le cas particulier des contributions dues aux veines de drainage dans les séquences de type écho de gradient rendues sensibles au mouvement par l'ajout de gradients de champ. Le modèle développé montre que, contrairement au comportement suggéré par de précédentes publications, l'effet de ces gradients n'est pas une diminution monotone de la différence de signal lorsque l'intensité des gradients augmente. D'importantes oscillations sont produites par l'effet de phase dû au déplacement des spins du sang dans les gradients additionnels, et par la variation de cette phase suite à l'augmentation du flux sanguin. La validation expérimentale du modèle est réalisée au moyen de la séquence PRESTO (Principles of Echo-Shifting combined with a Train of Observations), c'est-à-dire une séquence en écho de gradient où des gradients supplémentaires permettent d'augmenter la sensibilité aux inhomogénéités de champ, et donc à l'effet BOLD. Un accord qualitatif avec la théorie est établi en montrant que la variation de signal observée peut augmenter lorsqu'on intensifie les gradients additionnels.</p> <p align="justify">Un autre source de débat continuel dans le domaine de l'IRMf réside dans l'optimalisation des méthodes d'acquisition, au point de vue notamment de leur sensibilité à l'effet BOLD, leurs résolutions spatiale et temporelle, leur sensibilité à divers artefacts tels que la perte de signal dans les zones présentant des inhomogénéités de champ à grande échelle, et la contamination des cartes d'activation par les contributions des grosses veines, qui peuvent être distantes du lieu d'activation réel. Les séquences en écho de spin sont connues pour être moins sensibles à ces deux derniers problèmes, c'est pourquoi la deuxième partie de la thèse est consacrée à une nouvelle technique permettant de donner une pondération T2 plutôt que T2* aux images. Le principe de base de la méthode n'est pas neuf, puisqu'il s'agit de la « Préparation T2 » (T2prep), qui consiste à atténuer l'aimantation longitudinale différemment selon la valeur du temps de relaxation T2, mais il n’avait jamais été appliqué à l’IRMf. Ses avantages par rapport à d’autres méthodes hybrides T2 et T2* sont principalement le gain en résolution temporelle et en dissipation d’énergie électromagnétique dans les tissus. Le contraste généré par ces séquences est étudié au moyen de solutions stationnaires des équations de Bloch. Des prédictions sont faites quant au contraste BOLD, sur base de ces solutions stationnaires et d’une description simplifiée de l’effet BOLD en termes de variations de T2 et T2*. Une méthode est proposée pour rendre le signal constant au travers du train d’impulsions en faisant varier l’angle de bascule d’une impulsion à l’autre, ce qui permet de diminuer le flou dans les images. Des expériences in vitro montrent un accord quantitatif excellent avec les prédictions théoriques quant à l’intensité des signaux mesurés, aussi bien dans le cas de l’angle constant que pour la série d’angles variables. Des expériences d’activation du cortex visuel démontrent la faisabilité de l’IRMf au moyen de séquences T2prep, et confirment les prédictions théoriques quant à la variation de signal causée par l’activation.</p> <p align="justify"> La troisième partie de la thèse constitue la suite logique des deux premières, puisqu’elle est consacrée à une extension du principe de déplacement d’écho (echo-shifting) aux séquences en écho de spin à l’état stationnaire, ce qui permet d’obtenir une pondération T2 et T2* importante tout en maintenant un temps de répétition court, et donc une bonne résolution temporelle. Une analyse théorique approfondie de la formation du signal dans de telles séquences est présentée. Elle est basée en partie sur la technique de résolution des équations de Bloch utilisée dans la deuxième partie, qui consiste à calculer l’aimantation d’état stationnaire en fonction des angles de précession dans le plan transverse, puis à intégrer sur les isochromats pour obtenir le signal résultant d’un voxel (volume element). Le problème est aussi envisagé sous l’angle des « trajectoires de cohérence », c’est-à-dire la subdivision du signal en composantes plus ou moins déphasées, par l’effet combiné des impulsions RF, des gradients appliqués et des inhomogénéités du champ magnétique principal. Cette approche permet d’interpréter l’intensité du signal dans les séquences à écho déplacé comme le résultat d’interférences destructives entre diverses composantes physiquement interprétables. Elle permet de comprendre comment la variation de la phase de l’impulsion d’excitation (RF-spoiling) élimine ces interférences. Des expériences in vitro montrent un accord quantitatif excellent avec les calculs théoriques, et la faisabilité de la méthode in vivo est établie. Il n’est pas encore possible de conclure quant à l’applicabilité de la nouvelle méthode dans le cadre de l’IRMf, mais l’approche théorique proposée a en tout cas permis de revoir en profondeur les mécanismes de formation du signal pour l’ensemble des méthodes à écho déplacé, puisque le cas de l’écho de gradient s’avère complètement similaire au cas de l’écho de spin.</p> <p align="justify">La thèse évolue donc progressivement de la modélisation de l’effet BOLD vers la conception de séquences, permettant ainsi d’aborder deux aspects fondamentaux de la physique de l’IRMf.</p>
338

Amélioration de la thérapie cellulaire par greffes de biomatériaux cellularisés dans un modèle d'ischémie myocardique chez le rat

Hamdi, Hadhami 10 February 2012 (has links) (PDF)
La transplantation cellulaire apparaît aujourd'hui comme une thérapie prometteuse pour certaines formes graves d'insuffisance cardiaque réfractaire aux traitements classiques. Nous avons tenté dans ce travail d'améliorer la thérapie cellulaire en agissant sur deux paramètres : la perte et la survie des cellules. Dans une première étape, nous avons comparé les effets de deux méthodes de couverture épicardique des cellules via des biomatériaux cellularisés (feuilles de cellules et une matrice de gélatine) par rapport à ceux des injections conventionnelles dans le myocarde. Nous avons choisi de transplanter des cellules souches musculaires pour une étude de preuve de concept. Une amélioration de la fonction contractile au bout de 1 mois associée à une amélioration de la rétention cellulaire, une augmentation du nombre de vaisseaux sanguins et une diminution du pourcentage de la fibrose ont été enregistrées dans les groupes de biomatériaux cellularisés par rapport au groupe des injections de cellules. Nous avons tenté de confirmer les bénéfices de la couverture épicardique avec un autre type cellulaire. Nous avons choisi d'utiliser des cellules souches stromales d'origine adipeuse (ADSC pour Adipose Derived Stroma/Stem Cells). Toutefois, et malgré les bénéfices fonctionnels apportés lors des greffes, les feuilles d'ADSC étaient difficilement maniables lors de la chirurgie. De plus, les ADSC ont été incapables de générer de nouveaux cardiomyocytes s'intégrant électriquement et mécaniquement dans le tissu receveur. L'objectif de " régénération " myocardique requiert l'apport de cellules ayant un potentiel de différenciation cardiaque et devrait donc pouvoir être atteint avec des cellules souches embryonnaires (CSE). Nous avons choisi de travailler avec ce type cellulaire en raison de la possibilité de dériver, à partir de ces cellules, de véritables progéniteurs des cardiomyocytes. Pour limiter les conditions hypoxiques de l'environnement ischémique, nous avons co-transplanté les progéniteurs cardiaques dérivés des CSE humaines avec des ADSC afin d'en exploiter les propriétés trophiques, et d'optimiser ainsi la survie du greffon. Les deux populations cellulaires ont été transférées sur le myocarde infarci via, une matrice de gélatine (GELFILM™) qui représente de meilleures propriétés mécaniques. Lors de cette étude, nous avons remarqué une préservation contre le remodelage ventriculaire à court (1mois) et long (6mois) terme chez les animaux greffés avec les patchs co-ensemencés par rapport aux animaux recevant le patch seul et l'étude des patchs composites a montré la présence de cellules humaines in vitro mais pas in vivo, probablement à cause d'une maîtrise insuffisante du rejet. Notre travail a donc consisté en une analyse systématique de plusieurs paramètres fondamentaux de thérapie cellulaire (méthode de transfert des cellules, limitation des conditions de mort cellulaire après greffes, choix du type cellulaire). Les résultats obtenus valident l'emploi des matrices cellularisées déposées sur l'épicarde. Il convient maintenant d'optimiser la nature du biomatériau, les conditions de culture des progéniteurs cardiaques avec des cellules trophiques dans le but d'améliorer la survie du greffon.
339

Conceptions de la conception pour le génie électrique : de l'approche " Objets -Savoirs - Méthodes - Outils " à l'approche " Systèmes - Connaissances - Compétences - Organisations

Wurtz, Frédéric 03 April 2008 (has links) (PDF)
Les recherches présentées dans ce manuscrit ont comme objet d'étude la conception, et plus particulièrement la conception en ingénierie électrique. Cette activité de recherche a connu un essor important ces dernières décennies. Elle s'est traduite par un développement scientifique de Méthodes et d'Outils logiciels : typiquement les outils d'optimisation automatique ou les systèmes experts. La première partie du manuscrit présente des travaux qui s'inscrivent directement dans cette tradition. Il s'agit plus particulièrement de travaux autour de Méthodes et d'Outils pour instrumenter les phases de dimensionnement et d'études de faisabilité de composants et de systèmes d'ingénierie. Les Savoirs utiles pour ces phases sont des modèles multi-physiques de type analytique ou semi analytique, dont des exemples sont des schémas électriques équivalents. C'est pourquoi ont été développées, autour de ces types de savoir : - des méthodes de programmation automatique, - des méthodes de dérivation formelle pour des couplages avec des algorithmes d'optimisation - différentes générations de plates-formes logicielles dont la dernière intitulée CADES, qui en plus d'être un outil de capitalisation des méthodes précédentes, explore un paradigme nouveau d'architecture logicielle : le framework basé sur le concept de composant logiciel. Ce paradigme offre des propriétés d'inter-opérabilité et de modularité. Il peut ainsi apporter une solution aux problématiques de conception multi-physiques, multi-niveaux de modélisation, et de passage du composant au système. La deuxième partie du manuscrit présente cependant la thèse d'une crise, d'une approche de la conception, comme elle serait trop souvent abordée scientifiquement en ingénierie, à savoir une discipline de physique appliquée ne s'intéressant qu'aux Objets, Savoirs, Méthodes et Outils, et visant un idéal de rationalisation et d'automatisation. Il est montré que d'autres conceptions de la conception sont possibles. Elles se placent dans un cadre épistémologique avec des hypothèses qui font de la conception une activité complexe ne pouvant émerger que dans des systèmes intégrant les concepteurs/modélisateurs. Ces derniers y sont porteurs de ressources comme l'intuition, la maturation, les connaissances tacites, ... Cette argumentation servira de base pour montrer la nécessité de s'intéresser, aussi !!! , à des objets d'études que sont d'une part les Connaissances/Compétences portées par les concepteurs et d'autre part les Systèmes/Organisations permettant de les coordonner. Ceci permettra de légitimer les fondements de travaux passés, en cours (des plates-formes Internet de travail collaboratif autour des méthodes et outils, pour la capitalisation et l'échange de modèles, ...) et à venir (conception innovante, conception par l'usage, ...) Ces recherches sont ainsi une contribution à des questions scientifiques du type : - Comment caractériser la nature de la conception : quelles sont des conceptions possibles de la conception ? - La conception est-elle à terme entièrement rationalisable et automatisable, ou cette perspective est-elle un rêve naïf voire dangereux ? - Quelles approches de la conception développer, et à quels objets d'études faut-il s'intéresser pour développer une science de la conception dans un domaine tel que l'ingénierie électrique, amené à concevoir et à innover dans des applications clefs tels que la production, la distribution et la gestion de l'énergie, le bio-médical, ...
340

Couplage mécano-fiabiliste : 2 SMART - méthodologie d'apprentissage stochastique en fiabilité

Deheeger, François 28 January 2008 (has links) (PDF)
La prise en compte de l'incertain dans les analyses mécaniques est une condition indispensable pour un dimensionnement optimal et robuste des structures. Avec cet objectif les méthodes de couplage mécano-fiabiliste doivent intégrer les modélisations mécaniques de plus en plus complexes (comportement non-linéaire, dynamique, fatigue, mécanique de la rupture,...) complexité qui rend les analyses de plus en plus exigeantes en temps de calcul. La voie retenue dans la thèse consiste à substituer au modèle mécanique, un modèle approché obtenu par apprentissage statistique. La mise en oeuvre s'appuie sur la méthode des Support Vector Machines (SVM). Deux nouvelles méthodes sont proposées. SMART Support vector Margin Algorithm for Reliability es Timation permet d'élaborer de manière incrémentale une base de données optimale pour l'apprentissage de la frontière entre sûreté et défaillance. En couplant l'appprentissage avec la technique des subsets simulations, 2 SMART Subset by Support vector Margin Algorithm for Reliability es Timation prend en compte de faibles niveaux de probalité et un nombre relativement important de variables. Les travaux ont été validés sur des cas tests issus de la littérature ainsi que sur des cas mécaniques plus significatifs issus de problèmes industriels. Les résultats obtenus confirment la robustesse des méthodes proposées pour traiter les analyses de sensibilité et de fiabilité.

Page generated in 0.034 seconds