• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1673
  • 265
  • 117
  • 61
  • 15
  • 9
  • 7
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 2201
  • 2201
  • 1964
  • 1950
  • 1937
  • 438
  • 389
  • 335
  • 220
  • 215
  • 186
  • 176
  • 176
  • 175
  • 172
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Réalisation d'une mémoire d'incréments ternaires

Gaillard, René 11 July 1961 (has links) (PDF)
.
282

Etude d'une application de l'effet Hall à la réalisation d'éléments de circuits logiques

Vermot-Gaud, Jacques 28 January 1959 (has links) (PDF)
.
283

Mise en équations et résolution des réseaux électriques en régime transitoire par la méthode tensorielle

Kaufmann, Arnold 18 January 1954 (has links) (PDF)
.
284

Problèmes de Géométrie Algorithmique sur les Droites et les Quadriques en Trois Dimensions

Lazard, Sylvain 24 September 2007 (has links) (PDF)
Cette thèse présente un ensemble de travaux en géométrie algorithmique non linéaire portant d'une<br />part sur le développement d'algorithmes géométriques certifiés et efficaces traitant d'objets courbes et, en particulier, de quadriques et, d'autre part, sur les propriétés des droites de l'espace dans un contexte de visibilité tridimensionnelle.<br /><br />Ma réalisation principale concernant les quadriques est le développement du premier algorithme exacte, complet, quasi optimal et efficace pour calculer une paramétrisation de l'intersection de deux quadriques en trois dimensions. Cette contribution est une avancée très importante sur un problème ancien et c'est la première solution complète et certifiée à l'un des problèmes les plus élémentaires de modélisation par surfaces courbes implicites. Je présente également un très joli résultat sur les diagrammes de Voronoï de trois droites qui sont des partitions de l'espace en cellules bornées par des morceaux de quadriques. Nous montrons que la topologie de tels diagrammes est invariante pour des droites en positions générales et nous obtenons une propriété de monotonie sur les arcs des diagrammes. Nous en déduisons un algorithme simple pour ordonner des points le long de ces arcs, ce qui est vraisemblablement une avancée substantielle pour le développement futur d'algorithmes efficaces pour calculer l'axe médian de polyèdres. La technique de preuve, qui utilise fortement les outils modernes de calcul formel, est également intéressante en elle même.<br /><br />Concernant les propriétés des droites de l'espace dans un contexte de visibilité tridimensionnelle, je présente un ensemble de résultats cohérents sur différentes problématiques. En premier lieu, je présente des résultats sur les propriétés structurelles des droites tangentes ou transversales à quatre primitives. Précisément, je présente une caractérisation des configurations dégénérées de quatre sphères qui admettent un nombre infini de tangentes communes, une caractérisation de l'ensemble des droites transversales à quatre segments, et une étude du nombre maximum de tangentes à quatre triangles. Je présente ensuite plusieurs résultats sur les propriétés combinatoires de structures géométriques de visibilité tridimensionnelle. En particulier, je présente plusieurs résultats importants sur la complexité des silhouettes de polyèdres depuis un point de vu aléatoire et sur la complexité en moyenne et dans le cas le pire du complexe de visibilité, une structure de données encodant des informations de visibilité. Je présente également de nouvelles bornes étonnantes sur la complexité dans le cas le pire de l'ombre portée sur un plan par une source lumineuse polygonale en présence d'obstacles polyédriques convexes. En dernier lieu, je présente le premier algorithme non trivial et implantable pour calculer l'ensemble des segments tangents à quatre parmi $k$ polyèdres convexes non nécessairement disjoints, c'est-à-dire, essentiellement les sommets du complexe de visibilité.
285

Recherche d'ARN non-codants par réseaux de contraintes pondérées

Zytnicki, Matthias 12 December 2007 (has links) (PDF)
La recherche d'ARN non-codants (ARNnc) a reçu un regain d'intérêt suite à la découverte de nouveaux types d'ARNnc aux fonctions multiples. De nombreuses techniques ont été développées pour localiser ces ARN dans des séquences génomiques. Nous utilisons ici une approche supposant la connaissance d'un ensemble d'éléments de structure discriminant une famille d'ARNnc appelé signature.<br /><br />Dans cette approche, nous combinons plusieurs techniques de \textit{pattern-matching} avec le formalisme des réseaux de contraintes pondérées afin de modéliser simplement le problème, de décrire finement les signatures et d'attribuer un coût à chaque solution. Nos travaux nous ont conduit à élaborer plusieurs techniques de filtrage ainsi que des algorithmes de pattern-matching originaux que nous présentons ici.<br /><br />Nous avons de plus conçu un logiciel, appelé DARN!, qui implante notre approche, ainsi qu'un module de génération de signatures. Ceux-ci permettent de rechercher efficacement de nouveaux ARNnc.
286

1ère thèse: Matrices du second degré et normes générales en analyse numérique linéaire<br />-<br />2ème thèse: Le théorème de Stone - Weirstrass

Gastinel, Noël 12 December 1960 (has links) (PDF)
Le Calcul numérique présente deux aspects apparemment distincts :<br /><br /><br />- La partie consacrée à la recherche de méthodes ou de procédés alorithmiques, partie algébrique. <br /><br /><br />- La partie consacrée au contrôle des calculs et des approximations, partie topologque. <br /><br /><br />Sur le plan théorique, l'Analyse Numérique présuppose donc l'algèbre et la topologie. La raison profonde en est<br />la définition même des nombres réels en laquelle ce double point de vue se fait déjà sentir.<br />Ce travail se propose d'utiliser deux idées dirigées dans les deux voies dont nous venons de parler. La première est<br />de montrer le rôle important joué dans la plupart des processus de calcul linéaire par des matrices de polynomes minimaux du<br />second degré, dont l'inverse est, par ce fait, immédiatement calculable. La seconde est de montrer comment la considération<br />de normes générales peut permettre de définir des notions importantes comme les conditionnements numériques et d'obtenir un<br />contrôle plus fin des erreurs de calcul.
287

Résolution des problèmes aux limites différencielles linéaires par la méthode de décomposition de l'opérateur

Veyrunes, Jean 12 October 1960 (has links) (PDF)
.
288

Etude du sillage de rotors d'hélicoptère en configuration de Vortex Ring State

Hoinville, Eric 17 December 2007 (has links) (PDF)
Les études sur le Vortex Ring State ont récemment reçu un regain d'intérêt suite à la mise en place de trajectoires d'approche à forte pente pour les atterrissages en ville qui conduisent à des conditions de vol proches des frontières du VRS. Dans les années antérieures, les aspects numériques ont été étudiés grâce à des méthodes empiriques ou des modèles analytiques, et des expériences ont été effectuées dans le but de mieux comprendre la physique du phénomène. Dans cette étude, le code CFD elsA a été utilisé dans le but de résoudre les équations d'Euler. Un balayage en vitesse de descente verticale avec différents maillages a été réalisé afin d'étudier la capacité du solveur à capturer le Vortex Ring State. Dans un premier temps, la précision de la représentation de l'écoulement a été évalué en fonction d'hypothèses numériques (stratégies et précision des maillages, consistance en temps des simulations, ...) et physiques (périodicité de l'écoulement, cinématique du rotor, ...). Ceci permet d'extraire les options pour effectuer, dans un second temps, des simulations les plus représentatives possible de l'état de VRS afin d'étudier et de pouvoir décrire les mécanismes d'apparition et d'évolution de ce phénomène.
289

L'assemblage de programmes au sein de plateformes logicielles : Syntaxe, Sémantique et Pragmatique. Application aux plateformes dédiées aux simulations en agronomie.

Martin, Pierre 16 December 2009 (has links) (PDF)
Les systèmes envisagés par les sciences du vivant (génétique, agronomie, écologie etc.) sont pour la plupart des systèmes complexes. Depuis les années 1960, l'informatique permet aux équipes de recherche de représenter les systèmes qu'elles étudient sous la forme de programmes de simulation numérique. L'idée de réutiliser les programmes et de les assembler a donné naissance aux plateformes logicielles. Pour l'agronomie, l'enjeu des plateformes est de répondre aux questions posées par le Développement Durable impliquant durabilité écologique, viabilité économique et équité sociale. La thèse traite de questions sémantiques générées par l'assemblage de programmes. Pour notre étude, nous avons mis au point une trame d'analyse originale établie sur la base de travaux en cybernétique, ingénierie logicielle et intelligence artificielle. La trame considère les niveaux morphologique, syntaxique et sémantique des langages d'assemblage. Au travers de l'analyse d'exemples (MODCOM, OpenMI, VLE, APES, DSSAT et SEAMLESS-IF), nous montrons que les règles syntaxiques inhérentes aux langages d'assemblages limitent leur aptitude à représenter les systèmes complexes. Nous montrons aussi que l'efficience des métadonnées et ontologies, destinées à faire coïncider les entrées / sorties des programmes, dépend des aspects implicites ayant prévalu à la représentation des systèmes. Afin d'accéder à l'implicite, nous proposons de décrire le contenu du programme de façon formelle. Un modèle de description a été établi à partir de la linguistique pragmatique et de travaux en morphosyntaxe. L'interrogation partielle en mode direct permet de conférer une structure de description détaillée, basée sur les sept pronoms et adverbes que propose la langue française. Ce travail débouche sur la proposition d'un langage déclaratif de description de systèmes complexes.
290

Application of Pharmacometric Methods to Improve Pediatric Drug Development

Lala, Mallika 09 May 2011 (has links)
Pharmacometrics is a quantitative science that is rapidly changing the landscape of drug development, and particularly so for the pediatric population. The motivation behind the research underlying this dissertation is to contribute towards the improvement of pediatric drug development by the astute application of pharmacometric methods. Two distinct research areas have been focused upon: 1- improving pediatric pharmacokinetic (PK) trial design and 2- improving pediatric dosing of warfarin by using a genetics-based dosing regimen. The first project examined in detail the feasibility of and simulation-based methodology for implementing a recent regulatory PK quality standard. The focus was on designing pediatric PK trials that employ sparse sampling and population analysis methods, using a simulation-estimation platform. The research provided clarity on the impact of various trial design elements, such as PK sampling, adult data inclusion, PK variability and analysis method on sample size adequacy to honor the standard. The PK quality standard was found to be practically feasible in terms of sample size adequacy. Informative sampling schedule for a given number of PK samples per subject is assumed during trial design. Recommendations are made to: 1- use prior adult or pediatric data for trial design and analysis, wherever possible and 2 - use one-stage population analysis methods and biologically feasible covariate models for designing pediatric PK studies. The second project involved derivation of the first ever pediatric warfarin dosing regimen, including starting dose and titration scheme, based on pharmacogenetics (Cyp2c9 *1/*2/*3 and VKORc1 -1629 G>A polymorphisms). While extensive research and several dosing models for warfarin use in adults exist, there is paucity of data in pediatrics. A validated adult warfarin population PKPD model was bridged using physiological principles and limited pediatric data to arrive at a pediatric PKPD model and dosing regimen. Pediatric data (n=26) from an observational study conducted at the Children’s Hospital Los Angeles (CHLA) was used to qualify the pediatric model. A 2-step pediatric starting dose based on body weight (<20 kg and ≥20 kg) for each of 18 (6 Cyp2c9 x 3 VKORC1) genotype categories is proposed. The titration scheme involves percentage changes relative to previous dose, based on latest patient INR. The dosing regimen targets a major (≥ 60%) proportion of INRs within therapeutic range of 2.0-3.0, by the second week into warfarin therapy. Simulataneously, bleeding and thromboembolic risks are minimized via minimal proportions (≤ 10% and ≤ 20%) of INRs > 3.5 and INRs < 2.0, respectively. In simulations, the proposed dosing regimen performed better on target INR outcomes than the standard-of-care dosing used in the CHLA patients. Given the challeneges in and low likelihood of conducting pediatric warfarin clinical studies, the proposed dosing regimen is believed to be an important advance in pediatric warfarin therapy. Prospective warfarin studies in pediatrics using the proposed dosing regimen are recommended to refine and validate the suggested dosing strategy.

Page generated in 0.0355 seconds