• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 640
  • 233
  • 64
  • 30
  • 10
  • 8
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 1027
  • 356
  • 254
  • 237
  • 152
  • 144
  • 109
  • 103
  • 84
  • 82
  • 82
  • 82
  • 78
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Essai critique sur l'esthétique de Kant...

Basch, Victor, January 1896 (has links)
These - Faculté des lettres de Paris. / "Bibliographie": p. [609]-616.
212

An examination of first principles in thought and being in the light of Aristotle and Aquinas ...

Sullivan, James Bacon. January 1939 (has links)
Thesis (Ph. D.)--Catholic University of America, 1939. / Bibliography: 245-150.
213

Langages concurrents avec contraintes : communication par messages et distribution /

Réty, Jean-Hugues. January 1900 (has links)
Th. doct.--Informatique--Orléans, 1997. / Bibliogr. p. 133-140. Résumé. 1997 d'après la déclaration de dépôt légal.
214

Ética y filosofía analítica : estudio histórico-crítico /

Santos Camacho, Modesto. January 1975 (has links)
Tesis doct.--Filos.--Pamplona--Universidad de Navarra, 1972. Titre de soutenance : La obra y la tradición ética de Toulmin. / Bibliogr. p. 811-818 et bibliogr. des oeuvres de S.-E. Toulmin, p. 818-822.
215

Méthode et métaphysique chez Descartes / Method and metaphysics in Descartes

Paik, Joo-Jin 07 September 2017 (has links)
Descartes inaugure, dans le Regulae, l'idéal d'une science universelle par la méthode. La méthode cartésienne consiste avant tout à résoudre de la manière la plus parfaite possible les questions. Pour cela, il faut que l'esprit fonde sa solution sur l'expérience du réel tout en assurant qu'elle soit la solution la plus efficace possible. Dans ce sens, la méthode de Descartes comporte déjà un caractère métaphysique, car la recherche de la solution la plus efficace ne se sépare pas de la recherche d'une réalité absolue. La métaphysique cartésienne, étant le lieu où cet idéal de la méthode se réalise le mieux, fonde cette méthode sur l'expérience de la réalité absolue. Le cogito, ergo sum illustre le pouvoir de l'esprit de s'orienter par une expérience intérieure de l'esprit sur soi. Mais pour que ce pouvoir de l'esprit devienne une force productive du vrai, il faut que l'esprit participe à la puissance de Dieu tout en gardant son indépendance. Ainsi, la méthode s'étend jusqu'au fond de la métaphysique, si bien qu'elle devienne constitutive de l'unité de la métaphysique elle-même. / Descartes inaugurated, in the Regulae, the ideal of a universal science by method. The Cartesian method consists above all of solving the questions in the most perfect way possible. To do this, the mind must base its solution on the experience of the real while ensuring that it is the most effective solution possible. In this sense, Descartes' method already has a metaphysical character, for the search for the most effective solution is not separated from the search for an absolute reality. Cartesian metaphysics, being the place where this ideal of method is best realized, bases this method on the experience of absolute reality. The cogito, ergo sum illustrates the power of the mind to orient itself through an inner experience of the mind on oneself. But for this power of the mind to become a productive force of truth, the mind must participate to the power of God, while remaining independent. Thus the method extends to the heart of the metaphysics, so that it becomes constitutive of the unity of metaphysics itself.
216

Airport strategic planning under uncertainty : fuzzy dual dynamic programming approach / Planification stratégique des aéroports en environnements incertains : approche utilisant la programmation dynamique et logique dual floue

Capitanul, Elena Mihaela 30 September 2016 (has links)
Les aéroports sont des connecteurs critiques dans le système opérationnel de transport aérien. Afin de répondre à leurs obligations opérationnelles, économiques et sociales dans un environnement très volatil, ont besoin d'aéroports à embrasser le changement plutôt que d'y résister. Comme toute autre industrie, font face à des aéroports un large éventail de risques, dont certains spécifiques au transport aérien, les autres ayant seulement une influence indirecte mais assez puissant pour perturber les activités aéroportuaires. La planification longue terme de l'aéroport est devenue une question complexe en raison de la croissance constante de la demande de trafic aérien. Une nouvelle dimension de complexité est apparue lorsque l'incertitude a commencé à avoir un impact plus en plus perturbatrice, et significativement coûteuse sur le développement des infrastructures aéroportuaires. Historiquement, la capacité des outils traditionnels pour atténuer le risque et l'incertitude ont avérée inefficace. D'innombrables événements imprévus comme les attaques terroristes, la récession économique, les catastrophes naturelles, ont eu un impact dramatique sur les niveaux de trafic, certains avec une portée mondiale. Pour ce type hautement improbable d'événements peut être ajouté les progrès technologiques, de nouvelles modèles d'affaires des compagnies aériennes et aéroports, les changements de politique et de réglementation, préoccupation croissante pour l'impact environnemental. Dans ce contexte, la thèse met en avant une approche novatrice pour aborder l'évaluation des risques et de l'atténuation dans l'incertitude dans les projets de développement des infrastructures aéroportuaires à long terme. La thèse se développe sur le formalisme récemment développée de nombres flous comme un outil clé pour aborder l'incertitude. Après un examen approfondi de l'industrie aéroportuaire dans le contexte des environnements incertains, nombres double flous et double floue arithmétiques sont introduits. Comme le projet de développement des infrastructures aéroportuaires est un autre cas de problème de prise de décision en plusieurs étapes, la programmation dynamique est prise en compte afin d'optimiser le processus séquentiel de prise de décision. L'originalité de l'approche réside dans le fait que l'ensemble du processus sera floue et la composante double floue de la programmation dynamique sera introduite. Pour valider notre méthode, une étude de cas sera développée. / Airports are critical connectors in the air transportation operational system. In order to meet their operational, economic and social obligations in a very volatile environment, airports need to embrace change rather than resist it. Like any other industry, airports face a wide array of risks, some specific to air transportation, other having only an indirect influence but powerful enough to disrupt airport activities. Long term airport planning has become a complex issue due to the constant growth in air traffic demand. A new dimension of complexity emerged when uncertainty began having a more, and more disruptive, and significantly costly impact on developing airport infrastructure. Historically, the ability of traditional risk and uncertainty mitigation tools proved inefficient. Countless unforeseen events like terrorist attacks, economic recession, natural disasters, had a dramatic impact on traffic levels, some with a global reach. To these highly improbable type of events can be added technological advancements, new airlines and airports business models, policy and regulation changes, increasing concern for environmental impact. In this context, the thesis puts forward an innovative approach for addressing risk assessment and mitigation under uncertainty in long-term airport infrastructure development projects. The thesis expands on the newly developed formalism of fuzzy dual numbers as a key tool to address uncertainty. After a comprehensive review of the airport industry in the context of uncertain environments, fuzzy dual numbers and fuzzy dual calculus are introduced. Since airport infrastructure development project is another case of multi-stage decision-making problem, dynamic programming is considered in order to optimize the sequential decision making process. The originality of the approach resides in the fact that the entire process will be fuzzified and fuzzy dual dynamic programming components will be introduced. To validate our method, a study case will be developed.
217

Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerie

Nderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
218

Conception sur silicium de convertisseurs analogique-numérique haut débit pour le radiotélescope SKA / Design on silicon high speed analog-to-digital converters for the radio telescope SKA

Da Silva, Bruno 23 September 2010 (has links)
Pour les applications radioastronomiques, l'interface entre les mondes analogique et numérique est primordiale. Les convertisseurs analogique-numérique (CAN) doivent atteindre une forte résolution et un taux d'échantillonnage de plus en plus élevé pour numériser la plus grande bande passante possible. Pour le futur radiotélescope géant international SKA (Square Kilometer Array), la bande passante requise s'étend de 100 à 1500 MHz. L'objectif de ce mémoire est de concevoir et réaliser un CAN avec la technologie Qubic4X 0,25 µm en SiGeC, capable de dépasser le giga échantillon par seconde (GS/s) pour numériser toute la bande passante, pour des réseaux phasés denses. Deux études de CAN font l'objet de cette thèse. Dans le cadre de ce projet, nous avons analysé les différents blocs afin de minimiser les erreurs statiques et dynamiques pour une architecture parallèle 6 bits. Un premier CAN 6~bits en BiCMOS fonctionnant à une cadence de 1 GS/s a été étudié, réalisé et testé. Les simulations « post-layout » montrent un nombre de bits effectif de 4,6 bits pour une fréquence d'entrée de 400 MHz. La conception du masque permet de tester la puce. Ainsi, la sortie permet de valider le design. Les tests démontrent que le CAN opère à une fréquence maximale de 850 MS/s avec une bande passante de 400~MHz. Cependant, des erreurs persistent empêchant l'utilisation du circuit en raioastronomie. Le CAN consomme 2 Watts. Cette forte consommation est due aux interfaces d'entrées-sorties. Le second CAN bipolaire 6 bits fonctionne à une cadence de 3 GS/s. Ce convertisseur à architecture parallèle est entièrement conçu avec des topologies différentielles bipolaires. La partie numérique utilise une logique à émetteur couplé (ECL). Nous obtenons ainsi pour le second CAN une cadence de conversion élevée. Les simulations « post-layout » montrent que le CAN peut fonctionner à une fréquence de 3 GS/s, nous obtenons ainsi une bande passante de 1400 MHz. Les résultats dynamiques indiquent un nombre effectif de 5 bits pour une consommation de 3 Watts. / For applications in radio astronomy, the interface between the analog and digital domains is of primary concern. Analog-to-Digital Converters (ADC) must be capable of high resolution and extremely high sampling speeds in order to achieve the largest possible band width. For the future giant international radio telescope called the Square Kilometer Array (SKA), the bandwidth required is between 100 and 1500~MHz. The subject of the present thesis is to design and manufacture an ADC using the Qubic4X 0.25 µm technology in SiGeC capable of surpassing giga-samples per second (GS/s) in order to digitise the entire passband for dense phased-arrays. Two ADC designs are presented here. For this project, we analysed different design blocks with the goal of reducing static and dynamic errors in a 6-bit parallel architecture. The first 6-bit ADC which was designed, manufactured, and tested, was in BiCMOS and operated at 1 GS/s. The post-layout simulations showed the effective number of bits to be 4.6 bits with a 400 MHz input frequency. The mask design allowed for testing the chip. In this way, the output validates the design. Tests show that the ADC operates up to a maximum frequency of 850 MS/s with a passband of 400 MHz. However, there are some errors which make the current circuit unusable for astronomy purposes. The ADC runs on 2 Watts. The high power consumption is due to the input and output stages. The second 6-bit bipolar ADC operates at 3 GS/s. It is designed with a parallel architecture entirely using a bipolar differential topology. The digital part uses Emitter Coupled Logic (ECL). With this second chip, we obtain high speed conversion. Post-layout simulations show that the ADC can operate up to 3 GS/s, and we thus obtain a passband of 1400 MHz. Dynamic measurements indicate an effective number of bits of 5 bits with a power consumption of 3 Watts.
219

La fonction du sujet et la temporalité des états délirants : prolégomènes à la clinique de l’extériorité / The function of the subject and the temporality of delusional states : prolegomena for the clinic of exteriority

Tyranowski, Raphaël Lucas 07 October 2017 (has links)
Le présent travail de recherche cherche à éclairer le rapport entre le sujet, le délire et le temps. Les prémisses de cette question sont essentiellement cliniques : dans notre pratique nous avons rencontré des patients délirants dont les états ont présenté des organisations subjectives qui ne pouvaient pas être ni décrites, ni comprises dans la terminologie traditionnelle de la psychiatrie ou de la psychologie. Cette expérience clinique nous a confronté à deux difficultés majeures : premièrement, les agencements subjectifs du délire contredisent souvent la conception du sujet dont dispose la psychologie, deuxièmement, dans de nombreux cas toute tentative de réduction de la forme clinique du délire à la conception médicale de l’évolution continue conduit à une méconnaissance du fondement subjectif de l’organisation temporelle du phénomène. Dans notre travail nous démontrons que le phénomène délirant demande un concept du sujet et une notion du temps qui répondent à l’exigence de sa structure clinique. D’abord, en réinterrogeant la clinique classique des états délirants dans la perspective structurale, nous expliquons pourquoi l’étude des états délirants nécessite une transgression du plan de la psychopathologie traditionnelle. Ensuite, sur le fond d’une élaboration approfondie du concept de temps logique, nous conceptualisons une approche clinique qui met en évidence que le rapport de la formation délirante au temps est une série discontinue de modes de subjectivation de la jouissance qui permet d’identifier la temporalité du délire à un agencement de la succession de modes de temporalisation. Ainsi notre recherche aboutit à démontrer la thèse qui postule une solidarité structurale de la fonction du sujet avec la fonction-temps dans la clinique des états délirants / The present research seeks to shed light on the relationship between the subject, delusion and time. The premises of this question are essentially clinical: in our practice we have encountered delusional patients whose states have presented subjective organizations that could not be described or understood in traditional terminology of psychiatry or psychology. This clinical experience has confronted us with two major difficulties: firstly, the subjective organization of the delusion often contradicts the psychological conception of the subject, secondly, in many cases the attempt to reduce the clinical form of delusion to the medical conception of continuous evolution leads to a ignorance of the subjective basis of the temporal organization of the phenomenon. In our work we demonstrate that the delusional phenomenon demands a concept of the subject and a notion of time, which meet the requirement of its clinical structure. Firstly, by re-examining the classic clinic of delusional states in the structural perspective, we explain why the study of delusional states requires a transgression of the traditional psychopathology approach. Then, on the basis of the detailed elaboration of the concept of logical time, we conceptualize a clinical approach, which shows that the relation between delusion formation and time is a discontinuous series of modes of subjectivation of jouissance which permit to identify the temporality of delusion with an arrangement of the succession of modes of temporalization. Thereby our research results in demonstrating the thesis, which postulates a structural solidarity of the function of the subject with the function-time in the clinic of delusional states.
220

Programmation logique inductive pour la classification et la transformation de documents semi-structurés / Inductive logic programing for tree classification and transformation

Decoster, Jean 17 July 2014 (has links)
L’échange d’informations entre périphériques variés et sur internet soulève de nombreux problèmes par le volume et l’hétéroclisme des données échangées. La plupart de ces échanges utilisent le format XML. Afin de les faciliter, des traitements intelligents, comme la classification et la transformation automatiques, ont été développés. Le but de cette thèse est double : proposer un framework d'apprentissage pour la classification de documents XML et étudier l'apprentissage de transformations de documents XML. Le choix d’utiliser la Programmation Logique Inductive a été fait. Même si les méthodes d'apprentissage ont alors un surcoût algorithmique non négligeable (certaines opérations deviennent NP-dures), la représentation relationnelle semble adaptée aux documents XML de par son expressivité. Notre framework pour la classification fait suite à l'étude de familles de clauses pour la représentation de structures arborescentes. Il repose sur une réécriture des opérations de base de la PLI que sont la theta-subsomption et le moindre généralisé [Plotkin1971]. Nos algorithmes sont polynomiaux en temps dans la taille de leur entrée là où ceux standards sont exponentiels. Ils permettent une identification à la limite [Gold1967] de nos familles de clauses. Notre seconde contribution débute par la modélisation d’une famille de clauses dans la lignée des programmes fonctionnels [Paulson91]. Ces clauses sont une adaptation à la PLI des scripts d'édition et prennent en compte un contexte. Elles permettent la représentation de transformations de documents XML. Leurs apprentissages sont possibles grâce à deux algorithmes de type A*, approche courante en PLI (HOC-Learner [Santos2009]). / The recent proliferation of XML documents in databases and web applications rises some issues due to the numerous data exchanged and their diversity. To ease their uses, some smart means have been developed such as automatic classification and transformation. This thesis has two goals:• To propose a framework for the XML documents classification task.• To study the XML documents transformation learning.We have chosen to use Inductive Logic Programming. The expressiveness of logic programs grants flexibility in specifying the learning task and understandability to the induced theories. This flexibility implies a high computational cost, constraining the applicability of ILP systems. However, XML documents being trees, a good concession can be found.For our first contribution, we define clauses languages that allow encoding xml trees. The definition of our classification framework follows their studies. It stands on a rewriting of the standard ILP operations such as theta-subsumption and least general generalization [Plotkin1971]. Our algorithms are polynomials in time in the input size whereas the standard ones are exponentials. They grant an identification in the limit [Gold1967] of our languages.Our second contribution is the building of methods to learn XML documents transformations. It begins by the definition of a clauses class in the way of functional programs [Paulson91]. They are an ILP adaptation of edit scripts and allow a context. Their learning is possible thanks to two A*-like algorithms, a common ILP approach (HOC-Learner [Santos2009]).

Page generated in 0.0367 seconds