• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 488
  • 296
  • 197
  • 80
  • 78
  • 36
  • 36
  • 34
  • 16
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • Tagged with
  • 1444
  • 155
  • 148
  • 137
  • 114
  • 114
  • 113
  • 107
  • 100
  • 80
  • 69
  • 68
  • 66
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
721

Prisitaikančiosios baigtinių elementų strategijos plokštuminiams tamprumo teorijos uždaviniams / Adaptive finite element strategies for solution of two dimensional elasticity problems

Vasiliauskienė, Lina 22 June 2006 (has links)
The advent of modern computer technologies provided a powerful tool in numerical simulations. One of the most frequently used method for the discretization of the physical domain is Finite element Method (FEM). One of the main problems in a finite element analysis is the adequacy of the finite element mesh. Since the quality of the finite element solution directly depends on the quality of meshes, the additional process to improve the quality of meshes is necessary for reliable finite element approximation. In order to perform quality-assessed numerical simulation, the adaptive finite element strategies have been developed. These strategies integrate the finite element analysis with error estimation and fully automatic mesh modification, user interaction with this process is limited by initial geometry data and possible error tolerance definition. The finite element solution, obtained during adaptive finite element strategy process, approximates quite good different engineering structures. Despite many works in this area the problem of the adequate finite element mesh is not fully solved and additional developments are needed in order to improve adaptive mesh refinement strategy process. The aim and tasks of the work – to obtain methodology for quality assessed discretization to finite elements for complex geometry engineering structures by adaptive finite element strategies. To realize this purpose the following scientific tasks have been dealt: to develop an automatic... [to full text]
722

Prisitaikančiosios baigtinių elementų strategijos plokštuminiams tamprumo teorijos uždaviniams / Adaptive finite element strategies for solution of two dimensional elasticity problems

Vasiliauskienė, Lina 23 June 2006 (has links)
The advent of modern computer technologies provided a powerful tool in numerical simulations. One of the most frequently used method for the discretization of the physical domain is Finite element Method (FEM). One of the main problems in a finite element analysis is the adequacy of the finite element mesh. Since the quality of the finite element solution directly depends on the quality of meshes, the additional process to improve the quality of meshes is necessary for reliable finite element approximation. In order to perform quality-assessed numerical simulation, the adaptive finite element strategies have been developed. These strategies integrate the finite element analysis with error estimation and fully automatic mesh modification, user interaction with this process is limited by initial geometry data and possible error tolerance definition. The finite element solution, obtained during adaptive finite element strategy process, approximates quite good different engineering structures. Despite many works in this area the problem of the adequate finite element mesh is not fully solved and additional developments are needed in order to improve adaptive mesh refinement strategy process. The aim and tasks of the work – to obtain methodology for quality assessed discretization to finite elements for complex geometry engineering structures by adaptive finite element strategies. To realize this purpose the following scientific tasks have been dealt: to develop an automatic... [to full text]
723

Les aspects spatiaux dans la modélisation en épidémiologie

Mintsa mi ondo, Julie 29 November 2012 (has links) (PDF)
Dans cette thèse on s'intéresse a l'aspect spatial dans la modélisation en épidémiologie, ainsi que des conditions menant a la stabilité des systèmes que nous présentons, en épidémiologie, a partir des modèles classiques de Ross et Mckendrick. Dans un premier temps, nous examinons les effets de l'indice de la différence normalisée de végétation (NDVI) dans un modèle de contamination du paludisme a Bankoumana, une région du Mali. A partir du système obtenu, nous trouvons le taux de reproduction de base. Deux points d'équilibre sont déduits dont, un point d'équilibre sans maladie et un point d'équilibre endémique. Ce dernier point d'équilibre ainsi que le taux de reproduction de base sont fonction de l'indice de végétation normalisée. Par la suite, nous construisons un modèle ayant des équations a retard, dans lequel est également incorporée le NDVI. Le taux de reproduction de base ainsi que les deux points d'équilibre qui découlent de notre système sont fonction des retards introduits. Nous montrons que la stabilité de nos points d'équilibre est, non seulement fonction du taux de reproduction de base, mais elle est aussi étroitement liée aux retards introduits. Dans une autre optique, nous fractionnons la région d'étude en zones dans lesquelles nous émettons l'hypothèse que le taux de contagion induite par les individus d'une zone sur les individus de la même zone, ainsi que celui des individus d'une zone sur ceux d'une autre zone, peut être différents. Nous obtenons un système qui nous permet de déterminer les points d'équilibre ainsi que les conditions qui nous permettent d'obtenir la stabilité au sens de Lyapunov. Puis, nous perturbons le système précédent au niveau de son unique point d'équilibre endémique, en introduisant un bruit additif. Par suite, les conditions permettant la stabilité au sens de Lyapunov, sur le nouveau système obtenu, sont également déduites . Dans un cadre similaire, nous élaborons un modèle multi-groupes, dans lequel nous introduisons des coordonnées spatiales. Les groupes sont formés selon une proximité dépendant du rayon d'un cercle, de manière aléatoire. Ici, le taux de contagion est supposé uniforme dans les groupes. Après avoir déterminé les points d'équilibre ainsi que le taux de reproduction de base,nous trouvons les conditions qui favorisent la stabilité au sens de Lyapunov dans le cadre général. A l'ordre 1, c'est-a-dire, lorsqu'on suppose que nous n'avons qu'un groupe, les conditions de stabilité sont obtenus par le critère de Routh-Hurwitz.
724

Die sondeleer in die apologetiek van Dr. D. Martyn Lloyd-Jones / Johannes Louis Aucamp

Aucamp, Johannes Louis January 2004 (has links)
1. The central theoretical argument of this study is that Dr. D. Martyn Lloyd-Jones maintains a true and Biblical view of sin and that he sets off his view meaningfully and apologetically against unbiblical views regarding sin. The purpose of the study is to investigate Lloyd-Jones's view of sin and to indicate that it can at present be applied meaningfully and apologetically. 2. To develop and substantiate this argument, the following procedure has been followed: 2.1. Lloyd-Jones's theological background is established as reliable. 2.2. His position regarding apologetics and his points of departure concerning it are dealt with. He begins by examining man and his fall into sin. The gospel, as God's way of salvation, is set against unbiblical views regarding man and his redemption. His points of departure indicate how the fall of man has resulted in a humanistic anthropology and how this in turn has led to unscriptural standpoints regarding sin. The Biblical view of man, on the other hand, is based on man being made in the image of God. The fall of man damage this image of God in man. God restores this image by means of the redeeming sacrifice of his Son so that the restored man can once again become the image bearer through the working of the Holy Spirit. 2.3. Lloyd-Jones's apologetic points of departure are followed by an examination of his views regarding sin. His views are based on the Biblical doctrine of original sin and especially on the text of Romans 5:12-21. Lloyd-Jones's basic premise regarding original sin is: 'The world is as it is today because when Adam sinned all sinned". Effective apologetics should use the Biblical doctrine of original sin by referring to the positive antipole, namely redemption in Christ. 2.4. From original sin flows all acts of sin. That is why the characteristics of sin are investigated. The most important conclusions resulting from the characteristics of sin are: 2.4.1. That sin deliberately rejects and suppresses the truth and that the sinner is pleased about the sin which is committed (Romans 1:32; Philippians 3:19). 2.4.2. That the keyword for sin in the New Testament namely hamrtia, essentially means "missing your goal". However the exegesis of Lloyd-Jones indicates that the sinner does not only miss his goal, but does not even aim at the target; in fact, he aims at a different target from the one God sets for him, instead of the living God being worshipped, the creature and creation are worshipped (Romans 1:18-32). 2.4.3. That sin causes spiritual disintegration. This is why people are so susceptible to superficial and unscriptural trends. 2.4.4. That sin is directed primarily against God (Psalm 51:6). 2.4.5. That a true doctrine of sin calls forth a healthy realisation of sin and therefore also a realisation of one's dependence on God for eternal salvation (cf. Matthews 5:3). 2.4.6. That God's judgement of sin as a breach of his covenant is intensified in the church of the New Testament (d. Hebrews 10:19-31). 2.5. Lloyd-Jones uses his view of sin with the intention of awakening a realisation of sin in unbelievers and in this way encouraging the need for redemption. 2.6. The same doctrine of sin is used to foster the sanctification of believers. The process of sanctification consists of the mortification of sin. This process occurs through the direction of the Holy Spirit. 3. Sinful acts are manifested in false doctrines and false religions. This is why Lloyd-Jones's fields of application are examined. A feature of false doctrines and false religions used virtually throughout by Lloyd-Jones in the apologetic process, is the additions to or detractions from the Bible - or both: 3.1. The Roman Catholic Church adds to Scripture by accepting an open canon as it is embodied in Roman Catholic tradition. It is precisely as The Roman Catholic Church system places itself between man and Christ and in this way people's eternal salvation is compromised. 3.2. In contrast with humanism and the resulting uncertainty concerning eternal salvation in the Aminian theology, Lloyd-Jones focuses on the sovereignty of God and the consequential certainty of salvation in the Calvinistic doctrine of predestination. 3.3. If the Darwinian evolutionary doctrine were true, the Biblical doctrine of sin and salvation would be meaningless. Lloyd-Jones uses the story of creation and the fall of man as it is described in Genesis 1-3 as actual occurrences to show that evolutionism is simply a theory. 3.4. Against Christian Science's focus on temporary and earthly prosperity, Lloyd-Jones places man's eternal prosperity as a higher priority. Sin threatens man's eternal prosperity. The Christian Scientists add to the Bible by placing the Science of Mind above the Bible. They detract from the Bible by regarding sin simply as ignorance. 4. Outstanding and admirable features of Lloyd-Jones's apologetics are the way in which he pursues apologetics and the substantial quality of his discussion. He approaches apologetics in an atmosphere of love for the truth and love for the sinner. Lloyd-Jones's point of departure is essentially a prayerful development and true exposition and application of the Word. / Thesis (Th.M. (Ethics))--North-West University, Potchefstroom Campus, 2004.
725

Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifs

Jamain, Florian 27 June 2014 (has links) (PDF)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l'intractabilité de problèmes d'optimisation multi-objectifs.Dans un premier temps, nous essayons d'apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l'ensemble des points non dominés de toute instance de problèmes d'optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s'inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d'abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs.
726

Contributions à la localisation de personnes par vision monoculaire embarquée

Elloumi, Wael 06 December 2012 (has links) (PDF)
Une des techniques alternatives au GPS pour le développement d'un système d'assistance à la navigationpédestre en milieux urbains est la vision embarquée. La localisation du porteur de la caméra s'appuie alorssur l'estimation de la pose à partir des images acquises au cours du cheminement. En s'inspirant destravaux antérieurs sur la navigation autonome de robots, cette thèse explore deux approches dans le cadrespécifique de la localisation pédestre. La première méthode de localisation s'appuie sur des appariementsde primitives images avec une cartographie 3D pré-estimée de l'environnement. Elle permet une estimationprécise de la pose complète de la caméra (6 ddl), mais les expérimentations montrent des limitationscritiques de robustesse et temps de calcul liées à l'étape de mise en correspondance. Une solutionalternative est proposée en utilisant les points de fuite. L'orientation de la caméra (3ddl) est estimée defaçon robuste et rapide par le suivi de 3 points de fuites orthogonaux dans une séquence vidéo. L'algorithmedéveloppé permet une localisation pédestre indoor en deux étapes : une phase d'apprentissage hors lignedéfinit un itinéraire de référence en sélectionnant des images clef au long du parcours, puis, en phase delocalisation, une position approximative mais réaliste du porteur est estimée en temps réel en comparant lesorientations de la caméra dans l'image courante et celle de référence.
727

Étude des fluides frigorigènes : mesures et modélisations

Coquelet, Christophe 24 October 2003 (has links) (PDF)
Les problèmes liés à l'environnement et plus particulièrement à la couche d'ozone et à l'effet de serre sont fortement d'actualité. Depuis 1987, le protocole de Montreal impose une nouvelle réglementation en terme d'utilisation des fluides frigorigènes pour les pays industrialisés. Pour appliquer ce protocole, dans de bonnes conditions techniques et économiques, l'industrie a besoin de données thermophysiques concernant les nouveaux fluides frigorigènes. Afin de réaliser des mesures d'équilibre liquide vapeur sur les fluides frigorigènes, deux techniques expérimentales ont été choisies et utilisées. Il s'agit d'une technique statique-analytique avec échantillonnage des phases (analyse par chromatographie en phase gazeuse) et d'une technique synthétique avec une cellule à volume variable. Quatre systèmes binaires et un système ternaire ont été étudiés: 1,1,1,2,3,3,3-heptafluoropropane (R227ea)+ propane (R290); difluorométhane (R32) + R290; R32 + R290, dioxyde de carbone (CO2) + R227ea et R32+R290+R227ea. Pour réaliser le traitement des données et la modélisation, un progiciel a été développé: THERMOPACK. Ce progiciel a permis de comparer les résultats expérimentaux obtenus à des valeurs disponibles dans la littérature, de calculer la ligne des points critiques et de calculer la position des azéotropes.
728

Modélisation et reconnaissance active d'objets 3D de forme libre par vision en robotique

Trujillo-Romero, Felipe De Jesus 10 December 2008 (has links) (PDF)
Cette thèse concerne la robotique au service de l'Homme. Un robot compagnon de l'Homme devra manipuler des objets 3D courants (bouteille, verre...), reconnus et localisés à partir de données acquises depuis des capteurs embarqués sur le robot. Nous exploitons la Vision, monoculaire ou stéréo. Pour traiter de la manipulation à partir de données visuelles, il faut au préalable construire deux représentations pour chaque objet : un modèle géométrique 3D, indispensable pour contrôler la saisie, et un modèle d'apparence visuelle, nécessaire pour la reconnaissance. Cette thèse traite donc de l'apprentissage de ces représentations, puis propose une approche active de reconnaissance d'objets depuis des images acquises par les caméras embarquées. La modélisation est traitée sur un objet 3D isolé posé sur une table, ; nous exploitons des données 3D acquises depuis un capteur stéréo monté sur un bras manipulateur; le capteur est déplacé par le bras autour de l'objet pour acquérir N images, exploitées pour construire un modèle de type maillage triangulaire. Nous proposons d'abord une approche originale de recalage des vues partielles de l'objet, fondée sur des informations de pseudo-couleur générées à partir des points 3D acquis sur l'objet à apprendre ; puis une méthode simple et rapide, fondée sur la paramétrisation sphérique, est proposée pour construire un maillage triangulaire à partir des vues recalées fusionnées dans un nuage de points 3D. Pour la reconnaissance active, nous exploitons une simple caméra. L'apprentissage du modèle d'apparence pour chaque objet, se fait aussi en déplaçant ce capteur autour de l'objet isolé posé sur une table. Ce modèle est donc fait de plusieurs vues ; dans chacune, (1) la silhouette de l'objet est extraite par un contour actif, puis (2) plusieurs descripteurs sont extraits, globaux (couleur, signature de la silhouette, shape context calculés) ou locaux (points d'intérêt, couleur ou shape context dans des régions). Pendant la reconnaissance, la scène peut contenir un objet isolé, ou plusieurs en vrac, avec éventuellement des objets non appris ; nous proposons une approche active, approche incrémentale qui met à jour un ensemble de probabilités P(Obji), i=1 à N+1 si N objets ont été appris ; les objets inconnus sont affectés à la classe N+1 ; P(Obji) donne la probabilité qu'un objet de la classe i soit présent dans la scène. A chaque étape la meilleure position du capteur est sélectionnée en exploitant la maximisation de l'information mutuelle. De nombreux résultats en images de synthèse ou en images réelles ont permis de valider cette approche.
729

Techniques de gestion des défaillances dans les grilles informatiques tolérantes aux fautes

Ndiaye, Ndeye Massata 17 September 2013 (has links) (PDF)
La construction des grilles informatiques est un des axes de recherche majeurs sur les systèmes informatiques en réseau. L'objectif principal de la construction d'une grille informatique, c'est de fournir les concepts et composant logiciels système adéquats pour agréger les ressources informatiques (processeurs, mémoires, et aussi réseau) au sein d'une grille de traitements informatiques, pour en faire (à terme) une infrastructure informatique globale de simulations, traitement de données ou contrôle de procédés industriels. Cette infrastructure est potentiellement utilisable dans tous les domaines de recherche scientifique, dans la recherche industrielle et les activités opérationnelles (nouveaux procédés et produits, instrumentation, etc.), dans l'évolution des systèmes d'information, du Web et du multimédia. Les grilles de qualité production supposent une maitrise des problèmes de fiabilité, de sécurité renforcé par un meilleur contrôle des accès et une meilleur protection contre les attaques, de tolérance aux défaillances ou de prévention des défaillances, toutes ces propriétés devant conduire à des infrastructure de grille informatique sûres de fonctionnement. Dans cette thèse on propose de poursuivre des recherches sur les problèmes de gestion automatisée des défaillances, l'objectif principal étant de masquer le mieux possible ces défaillances, à la limite les rendre transparents aux applications, de façon à ce que, du point de vue des applications, l'infrastructure de grille fonctionne de façon quasi-continue. Nous avons conçu un nouvel algorithme hiérarchique auto-adaptatif pour assurer la tolérance aux fautes dans les grilles informatiques. Ce protocole s'appuie sur l'architecture hiérarchique des grilles informatiques. Dans chaque cluster, nous avons défini un coordonnateur appelé processus leader, dont le rôle consiste à coordonner les échanges intra-cluster et à assurer le rôle d'intermédiaire entre les processus appartenant à des clusters différents. Pour sauvegarder les états des processus inter-cluster, le protocole adaptatif utilise le mécanisme de journalisation pessimiste basé sur l'émetteur. A l'intérieur du cluster, le protocole exécuté dépend de la fréquence des messages. A partir d'un seuil de fréquence maximale déterminée en fonction de la densité des communications, c'est le protocole de point de reprise coordonné non bloquant qui sera utilisé, tandis que si le nombre de messages dans le cluster est faible, les messages sont sauvegardés avec la journalisation pessimiste.
730

Cosmic metodo taikymas darbo imlumo įvertinimui agile projektuose / Cosmic method usage for job evaluation in agile projects

Ivonytė, Aistė 18 August 2014 (has links)
COSMIC metodas apibrėžia principus, taisykles ir standartinio funkcinio dydžio matavimo procesą. Šio metodo realizacija Agile projektuose, padės prognozuoti konkrečios užduoties atlikimo laiką ankstyvoje planavimo stadijoje. Netikslus darbo imlumo įvertinimas planavimo stadijoje gali tapti rimta problema, dėl ko gali nepavykti įgyvendinti projekto, arba jo dalies, laiku. Vartotojų scenarijai yra vertinami SP, kurie nėra verčiami į laikinę skalę, kas dar labiau apsunkina tikslų darbo imlumo įvertinimą pradinėje projekto ir užduočių planavimo stadijoje. Šiame darbe atliekama detali COSMIC metodo analizė, apžvelgiami esami įrankiai, skirti Agile projektams. Įsitikinama, kad nėra sukurto įrankio, leidžiančio prognozuoti vartotojų scenarijų atlikimo laiką, sujungus COSMIC su istoriniais darbų atlikimo duomenimis. Darbe iškeltų tikslų pasiekimui buvo atliktas trijų dalių eksperimentinis tyrimas kurio metu paaiškėjo, kad COSMIC metodo apjungimas su istoriniais darbų atlikimo duomenimis gali pateikti panašią ar net geresnę prognozę, lyginant su programuotojų komandos įvertinimu. Taip pat pateikiamos idėjos įrankio korekcijai, jos realizuojamos ir kartojamas eksperimentas. Aptariami gauti rezultatai ir pateikiamos išvados. / COSMIC method defines principles, rules and the process of standard functional size measurement. Method implementation in Agile projects will help forecasting the completion time for a specific task in the early planning stages. Inaccurate task capacity estimation in the planning stage can become a serious problem which in turn may lead to not being able to complete parts of the assignment or even the whole project. User stories are being evaluated as SP which are not converted into a timescale which further complicates accurate job receptivity in the early project and task planning stage. Within this paper a detailed COSMIC method analysis is being performed as well as a review of existing Agile project tools. Also making sure that there are no other tools which allow the forecast of user story completion time by merging COSMIC with task completion time history log. To complete the goals of this paper a three part experimental survey took place which determined that the consolidation of the COSMIC method with the task completion time history may result in a similar or even more accurate forecast as compared to the forecast of a team of software developers. Also new ideas for tool adjustments are included, their implementation and repeating of the experiment, review of the obtained results and findings.

Page generated in 0.0501 seconds