Abschnitte dieses Kurses

  • Der Erwerb eines Seminarscheines setzt voraus, dass man ein Thema (ca. 2 Sitzungen) übernimmt. In einem Einführungsreferart sollte die Position des Autors gekennzeichnet werden, dessen Position zur Theorie der Formalisierung wir anhand ausgewählter Textabschnitte diskutieren wollen. Hierzu sollte man sich über die ausgewählten Abschnitte hinaus mit dem Autor bzw. der Position beschäftigen und die Grundposition des Autors  sowie den ausgewählten Textausschnitt einordnen. Der ausgewählte Text wird von allen gelesen und sollte nicht referiert werden. Vielmehr wollen wir die jeweiligen Textausschnitte und die für diese relevanten Beispiele logischer Formalisierungen gemeinsam diskutieren. Den ReferentInnen kommt hier die Funktion vor, die Diskussion anzuregen und zusammen mit dem Dozenten zu strukturieren. 

    Die Einführungsreferate sollten eine Übersicht über die jeweilige Position in Form einer Tabelle enthalten, in der mindestens Ziele, Kriterien, paradigmatische Beispiele, ggf. Grundbegriffe samt Definitionen und Probleme genannt werden. Diese Übersicht ist im Anschluss an die Sitzungen zu überarbeiten. Referate sollten vor der Sitzung allen per Moodle zugänglich gemacht werden. Die überarbeiteten Versionen nach den Sitzungen werden dann ebensfalls zur Verfügung gestellt. Aus den Übersichtigen zu allen Positionen soll abschließend für alle TeilnehmerInnen eine Synopse erstellt werden, die einen groben Überblick über die verschiedenen theoretischen Ansätze verschafft.

    Literatur: Wir werden im Seminar sowohl die einschlägigen Publikationen zum Thema kennen lernen, als auch den neuesten Stand der Debatte. Der Klassiker, der einen diskursiven, differenzierten Einstieg in die Debatte bietet, ist

    Dieses Buch sei als Zusatzlektüre empfohlen.  Wir werden im Seminar auch mit Auszügen hieraus beginnen.
    Die drei ersten Standardwerke, in denen Kriterien logischer Formalisierung erstmalig diskutiert und angegeben werden, sind:

    • Ulrich Blau, Die dreiwertige Logik der Sprache. Ihre Syntax, Semantik und Anwendung, de Gruyter 1977.
    • Mark Sainsbury, Logical Forms, An Introduction to Philosophical Logic, Blackwell, 1991 (2. Auflage 2001).
    • Richard L. Epstein, Predicate Logic, The Semantic Foundations of Logic, Oxford University Press 1994 (Neuauflage 2012 im Advanced Reasoning Forum).
    Wir werden Auszüge aus den beiden letzten Büchern lesen und diskutieren. Kapitel 4 aus Sainsbury's Buch ("Quantification") und Kapitel V aus Epstein's Buch ("The Logical Form of a Proposition") geben einen Überblick über Standardbeispiele der Theorie der Formalisierung und sind als zusätzliche Lektüre empfohlen.

    Das neueste Buch zum Thema ist
    • Jaroslav Peregrin, Vladimir Svoboda, Reflective Equilibrium and the Principles of Logical Analysis, Understanding the Laws of Logic, Routledge 2017.
    Auch Brun ist ein Vertreter einer Theorie der Formalisierung auf Basis von Rawls' und Goodmann's Konzept des Reflective Equilibrium. Peregrin und Svoboda verbinden dies zugleich mit einem auf Brandom zurückgehenden inferentialistischen Ansatz. Wir werden Auszüge aus diesem Buch lesen.

    Der Hauptfokus im Seminar wird darauf liegen, einen Überblick über die Debatte und die unterschiedlichen Ansätze zu gewinnen. Deshalb werden wir am Ende auch auf die Formalisierungspraxis in der mathematischen Logik eingehen, die zwar eine maßgebliche Rolle spielt, aber in der philosophischen Theorie der logischen Formalisierung kaum als eigenständiges Modell diskutiert wird. Das interessante an der Theorie der logischen Formalisierung ist vor allem, dass die lange theoretisch kaum diskutierte, aber keineswegs einheitliche Praxis der logischen Formalisierung auf ganz unterschiedlichen Zielsetzungen beruht, den ganz unterschiedlichen theoretische Ansätze entsprechen. Dies drückt sich in unterschiedlichen Kriterien der logischen Formalisierung und auch ganz unterschiedlichen Verständnisses von Logik aus. Dies wollen wir im Seminar studieren.
  • Einführung & De Morgan's Argument (16.10)

    Es wird das Thema, die unterschiedlichen Positionen sowie der Semesterplan vorgestellt.

    Bevor wir uns einzelnen Positionen zuwenden, werden wir am Beispiel von De Morgan's Argument

    Pferde sind Tiere.
    -----------------------
    Pferdeköpfe sind Tierköpfe.

    alternative Formalisierungen sowie Möglichkeiten ihrer theoretischen Rechtfertigung diskutieren.

    Im Zuge dessen werden wir in dieser oder zu Beginn der nächsten Stunde einige Grundbegriffe (Formalisierung, Theorie der Formalisierung, Korrepondenzschema, Interpretation) und Kriterien (Verbalisierungstest, W-Kriterien, G-Kriterium, KS-Kriterium) herausarbeiten, die für die weitere Diskussion vorausgesetzt sind.



  • Brun: Systematisch Formalisieren (23.10, 30.10)

    Neben Korrektheits- und Adäquatheitskriterien (siehe Grundbegriffe und Textausschnitt aus "Adequate Formalization and De Morgan's Argument" ) gibt Brun auch Kriterien logischer Formalisierungen an, die auf der Idee einer systematischen Formalisierung beruhen. Es sind erst diese Kriterien, die nach Brun für die klassische Formalisierung der Konklusion in De Morgan's Argument und gegen Wengerts Formalisierung sprechen. Es ist eine Besonderheit von Bruns Ansatz, solche Kriterien zu entwickeln. Er versteht seine Theorie als Vorreiter des Projektes, die Umgangssprache nach einem systematischen Algorithmus zu formalisieren, - ein Projekt das für die KI-Forschung  relevant ist und bereits von Davidson, Montague oder in der Linguistik z.B. in der generativen Grammatik in Angriff genommen wurde. Zugleich diskutiert er dabei einschlägige Fragen wie: Gibt es eine genaueste Formalisierung? Kann die Ungültigkeit von Schlüssen nachgewiesen werden? Gibt es so etwas wie eine einheitliche logische Form von Sätzen? Wie kann man angesichts der misleading form thesis rechtfertigen, Sätze analoger Struktur analog zu formalisieren?

    Wir werden im Seminar ausgewählte Textausschnitte aus Bruns Buch "Die richtige Formel" zum Thema des systematischen Formalisierens diskutieren (das ausführliche Inhaltsverzeichnis sowie die ersten Seiten aus dem Aufsatz "Adequate Formalization and De Morgan's Argument" dienen nur zur Orientierung). Neben einigen in Grundbegriffe erläuterten Termini, sind für die ausgewählten Textabschnitte folgende Termini vorausgesetzt:

    misleading form thesis: These, dass die oberflächengrammatische Struktur umgangssprachlicher Sätze irreführend ist für die Identifikation logischer Formen. Z.B. können Sätze der Form "A ist B" sehr unterschiedliche logische Formen besitzen ("Pferde sind Tiere", "Schnee ist weiß", "Rot ist eine Farbe", "Primzahlen sind Zahlen", "Junggesellen sind unverheiratete Männer", "Schnelles Spaziergehen ist  Spazierengehen" etc.).

    Die beiden Prinzipien Q1 und Q2 sind Prinzipien adäquaten Formalisieren:

    Prinzip Q1: Wenn sich zwei Aussagen A und B in einem logischen Merkmal unterscheiden, das in der Logik L formalisiert werden kann, so ist jede L-Formalisierung phi, die zugleich eine korrekte Formalisierung von A und B ist, keine adäquate Formalisierung von A oder keine adäquate Formalisierung von B. (Brun, Die richtige Formel, S. 245)

    Q1 schließt z.B. aus, dass alle Tautologien mit Q v ~ Q formalisiert werden. "Es regnet gdw. es regnet" (A) unterscheidet sich z.B. von "Es regnet oder es regnet nicht" (B) in einem logischen Merkmal (nämlich der wahrheitsfunktionalen Verknüpfung von Aussagen), folglich können in der Aussagenlogik nicht beide Aussagen A und B mit Q v ~ Q adäquat formalsiert werden.

    Prinzip Q2: Jede Formalisierung phi in einer Logik L, die zugleich eine korrekte Formalisierung der Aussage A und der Aussage B ist, ist mindestens dann keine adäquate Formalisierung von A oder keine adäquate Formalisierung von B, wenn sie dies im Kontext einer anderen Logik gemäß Q1 nicht ist. (Brun, Die richtige Formel, S. 250)

    Gemäß Q2 können die  Aussagen "Alle Katzen sind schwarz"  (A) und "es keine Katzen gibt, die nicht schwarz sind" (B) nicht beide adäquat aussagenlogisch durch "P" formalisiert werden, da diese Formalisierung in der Prädikatenlogik 1. Stufe gemäß Q1 nicht in beiden Fällen adäquat ist (A und B unterscheiden sich in der Verwendung der Quantoren).

    Brun definiert die genauer Beziehung zwischen Formeln unter Verwendung der Begriffe der Notationsvariante und der Verfeinerung. Dadurch klingt seine Definition etwas kompliziert, - sie entspricht aber einer einfachen Intuition.

    Notationsvariante: Notationsvarianten unterscheiden sich entweder durch isomorphe Verwendung kategorematischer Ausdrücke, so dass sich durch Einsetzung der Ausdrücke im Korrespondenzschema gleiche semi-formale Ausdrücke ergeben (z.B. ist "p" Notationsvariante zu "q", wenn "p" und "q" gleichermaßen im Korrespondenzschema  "Fury ist ein Pferd" zugeordnet werden) oder durch Substitution von Variablen ineinander überführt werden können (z.B. "Ax Fx" und "Ay Fy"). (Vgl. Brun, Die richtige Formel, Abschnitt 13.2)

    Verfeinerung: Eine Formel phi entsteht aus einer Formel Psi durch Verfeinerung der Aussagenkonstante alpha durch die komplexe Formel Chi (symbolisch: Phi = Psi(alpha/Chi) genau dann, wenn phi das Resultat ist, das man erhält, wenn man an allen Stellen, an denen alpha in Psi vorkommt, dieses Vorkommen von alpha durch Chi ersetzt. (Brun, Die richtige Formel, S. 312)

    genauer: Eine Formel Phi ist genau dann genauer als eine Formel Pis, wenn es eine Formel Chi gibt, die durch eine oder mehrere Verfeinerungen aus Psi entsteht, so dass Phi eine Notationsvariante Chi, aber keine Notationsvariante von Psi ist.

    Diese Termini werden hier nur angegeben, da sie für die Textausschnitte vorausgesetzt werden. Bis auf die misleading form thesis wollen wir sie aber nicht im Seminar diskutieren, da es sich eher um technische Details handelt.

  • Tractarian View: Formalisieren als Identifikation der logischen Form (13.11, 20.11, 27.11)

    Sainsbury setzt sich mit dem Projekt auseinander, logische Formalisierung zu verstehen als die Bestimmung logischer Formen umgangssprachlicher Sätze. Gemäß des Tractarian View des frühen Wittgenstein sollen damit alle Schlüssigkeitsbeziehungen auf formale Beziehungen zurückgeführt werden und die Form der Wahrheitsbedingungen umgangssprachlicher Sätze über ihre logische Formen identifiziert werden. Logische Analyse und logische Formalisierung sind nach diesem Verständnis nicht unterschieden. Eine weniger radikale Variante vertritt Davidson, der diesen Unterschied zumindest in strategischer Absicht aufrecht erhalten will, aber ebenso logische Formalisierungen für das Projekt, die Semantik der Umgangssprache zu erklären, nutzen will. Maßgeblich für diese Ansätze ist die misleading form thesis und die Idee, die irreführende Oberflächengrammatik der Umgangssprache durch eine logische Formalisierung zu ersetzen, anhand derer sich die logischen Beziehungen und Wahrheitsbedingungen der umgangssprachliche Sätze direkt ablesen lassen.

    Wir werden dieses Projekt anhand von Textausschnitten aus Sainsbury's Buch "Logical Forms" diskutieren. Für Sainsbury's Diskussion sind insbesondere Davidsons Analyse von Sätze mit Adverbien sowie die Analyse binärer Quantoren als Beispiele einschlägig. Erstere wird schon im Textausschnitt aus Bruns "Die richtige Formel" dargestellt, letztere wird im Textausschnitt zu Sainsbury wiedergegeben.

    Hier noch zwei Termini, die Sainsbury an anderer Stelle erklärt:

    Q: the language of first-order logic
    QN: Q augmentet with a symbol (box) for "it is neccessary that" and "it is possible that" (diamond)
    QC: Q augmentet with "C" as symbol for the counterpart-relation (a relation of an object in the actual world to a similar object in a non-actual, possible world).

    Der Text von Lampert treibt Wittgensteins Tractatusprogramm weiter, indem er aufzeigt, dass die Bestimmung logischer Formen nicht bei der Zuordnung von logischen Formel der Prädikatenlogik endet, sondern verlangt, diese weiter in ideale Diagramme einer idealen Notation umzuformen. Dies zeigt auch, wie sehr ein Verständnis der Logik sowie ihrer Regeln, Aufgaben und konkreten Ausgestalung mit einer Theorie der Formalisierung zusammenhängen.

  • Epstein: Semantische Grundlegung (4.12); Baumgartner: Semantische Grundlagen (11.12)

    Um logische Formeln umgangssprachlichen Sätzen zuzuordnen, muss man sie (die logischen Formeln) auf eine bestimmte Weise interpretieren. Welche Voraussetzungen an eine Semantik und an Korrespondenzschemata zu stellen sind, wenn die Prädikatenlogik 1. Stufe zum Zwecke der Formalisierung angewendet wird, diskutiert Epstein. Er ist auch der erste, der einen expliziten Kriterienkatalog vorgelegt hat.  Epstein ist ein Verfechter einer semantischen Fundierung der Logik (etwa im Gegensatz zu Peregrin und Svoboda, die einen inferentialistischen Ansatz vertreten), für den auch grundlegende ontologische Annahmen (wie die, dass die Welt aus Dingen besteht, über die wir mittels sprachlicher Prädikate Aussagen treffen) wesentlicher Teil der Grundlegung der Prädikatenlogik 1. Stufe und ihrer sinnvollen Anwendung sind. Dies spricht sich auch in seinen Kriterien 1a und 1b aus, die keine Entsprechung in Bruns Korrektheits- oder Adäquatheitskriterien haben. Für diese spielt sein TWP-Prinzip eine prominente Rolle:

    Things, the World, and Propositions (TWP): The world is made up of individual things; propositions are about individual things. (Epstein, Predicate Logic, S. 42).

    Anders als etwa Davidson oder auch Wittgenstein im Tractarian View, betont Epstein die Grenzen, die die Semantik einer logischen Sprache ihrer Anwendung in der Formalisierung umgangssprachlicher Sätze setzt. Epstein ist auch Mathematiker und schreibt:

    "The great anomaly of predicate logic, to my way of thinking, is that beginning with reasoning about tables and chairs and dogs, we arrive at a logic that is more beautifully tailored to mathematics, to abstract objects, than to tables and chairs and dogs. For in conentrating on objects we ignore verbs and tenses, with the result that what is timeless can be better reasoned about than what is in the world of time and change." (Epstein, Predicate Logic, S. 361):

    Wir werden insbesondere fundamentale Prinzipien, die nach Epstein einer sinnvollen Anwendung der Prädikatenlogik 1. Stufe zu Grunde legen in Zusammenhang mit einschlägigen Beispielen anhand der ausgewählten Textausschnitte diskutieren.

    Im Gegensatz zu Epstein, argumentiert Baumgartner in seinem Text nicht für eine bestimmte Semantik, sondern im Anschluss an Etchemendy's Unterscheidung einer interpretational und einer representational semantics dafür, dass der Begriff der informellen Schlüssigkeit mehrdeutig ist und dies unmittelbar die Korrektheitskriterien der logischen Formalisierung betrifft. Wir werden in diesem Zusammenhang auch die Frage diskutieren, wie unterschiedliche Theorien der prädikatenlogischen Formalisierung und unterschiedliche Konzepte einer Semantik der Prädikatenlogik 1. Stufe zusammenhängen.

  • Peregrin/Svoboda: Formalisieren und Reflective Equilibrium - Inferentialistische Grundlegung der Logik (18.12, 8.1))

    Pergrin und Svoboda begründen die Logik durch ein Gleichgewicht (equilibrium), das zwischen informellen und formalen Schlüssen hergestellt wird. Sie sind damit zum Einen Vertreter eines inferentiellen Ansatzes, für den auf eine Semantik in der Logik sowie auch der Theorie der Formalisierung verzichtet werden kann, als auch des "logical expressivsm", nach dem die Logik nicht unabhängig von der Explikation fundamentaler linguistischer Regeln begründet werden kann. Sie gewinnt nur normative Kraft, insoweit sie in einer Sprachpraxis begründet ist, deren Regeln sie schärft, systematisiert und vereinheitlicht. Auch Brun sieht im reflective equilibrium ein wesentliches Prinzip, das die Logik und ihre Anwendung begründet. In einem solchen Ansatz gewinnt eine Theorie der Formalisierung eine prominente Rolle, da sie zwischen Umgangsprache und formalem System vermittelt.

    Wir werden diesen Ansatz anhand zweier einschlägiger Kapitel aus dem jüngst erschienenen Buch von Peregrin und Svoboda zu den Kriterien der Formalisierung (Kapitel 5) und dem reflective equilibrium (Kapitel 7) kennenlernen.

  • Fuenmayor, Benzmüller: Reflective Equilibrium und Computational Hermeneutics (15.1)

    Ein Problem inferentieller Kriterien der logischen Formalisierung, ist der mit diesem Ansatz einhergehende holistische Ansatz, nach dem einzelne Sätze in vielen (strenggenommen unzähligen) argumentativen Zusammenhängen gestellt werden müssen, um adäquate Formalisierungen zu finden. Dies wirft Komplexitätsprobleme auf.

    Der gerade erst als preprint erschiene Artikel von Fuenmayor und Benzmüller nimmt den Ansatz von Peregrin und Svoboda auf und zeigt, wie Technologien automatisierten Beweisens verwendet werden kann, um adäquate logische Formalisierungen, die sich auf inferentielle Kriterien stützen, zu finden. Hierbei übertragen sie Davidson radikale Interpretation auf die Situtation beim Formalisieren: der umgangssprachliche Text ist zu interpretieren, wobei als "empirische Daten" nur informelle Schlüssigkeitsbeziehungen zwischen Aussagen vorausgesetzt werden können, und die mit Formalisierungen gefütterte Maschine ist der radikale Interpret, der die Auswertung formaler Schlussbeziehungen mit den Daten abgleicht.

    Wir werden diese Weiterentwicklung sowie die Bedeutung automatisierten Beweisens für die Theorie der Formalisierung anhand des Textes von Fuenmayor und Benzmüller diskutieren.

  • Schamberger: Rechtfertigung klassischer Formalisierungen in der Filterlogik (22.1)

    Auch Schamberger diskutiert das Verhältnis von formaler und informeller Schlüssigkeit. Sein Ziel ist es, den weitreichenden Geltungsanspruch traditioneller, prädikatenlogischer Formalisierungen gegenüber den "Separatisten" zu rechtfertigen, die meinen, dass die Komplexität der Umgangssprache das Unterfangen obsolet macht, ihre Logik mit den einfachen Mitteln der Prädikatenlogik 1. Stufe einzufangen. Ihm kommt es darauf an zu zeigen, dass ein formaler Begriff der logischen Schlüssigkeit auf die logische Schlüssigkeit umangssprachlicher Argumente übertragen werden kann. Hierbei setzt er sich insbesondere mit Argumenten zu Konditionalsätzen auseinander, die zeigen wollen, dass die Anwendung der klassischen Prädikatenlogik 1. Stufe inkorrekt ist. Diesen Argumenten will er mit seinem filterlogischen Ansatz entkräften, der durch eine einfache Einschränkung der klassischen Kalkülregeln der Begriff der logischen Schlüssigkeit soweit einschränkt, dass nur noch korrekt logisch gültige Schlüsse durch eine gängige Formalisierungspraxis dieser Schlüsse formal eingefangen werden. Wir werden nicht Schambergers filterlogischen Kalkül diskutieren, sondern anhand des ausgewählten Textes von Schamberger seinen Ansatz, durch eine Veränderung des formalen Kalküls die Korrektheit klassischer Formalisierungen abzusichern.

  • Mathematische Logik: Theorie und Praxis der logischen Formalisierung (29.1, 5.2)

    Die moderne Logik ist von philosophisch interessierten Mathematikern entwickelt worden. Auch wenn Frege und Russell sich viel mit der Analyse der Umgangssprache beschäftigt haben, so galt doch ihr Hauptaugenmerk der Mathematik. Dies gilt insbesondere auch für die sich an Russell und Frege anschließende mathematische Logik. Der formale und metalogische Apparat und oftmals auch die modelltheoretische Semantik (die eine "interpretational semantics" ist) wird oftmals in philosophischen Logiken, die an der logischen Formalisierung der Umgangssprache interessiert sind, übernommen, ohne die unterschiedlichen Zielsetzungen einer mathematischen und philosophischen Logik zu reflektieren. Wir werden anhand der Texte von Shoenfield und Smith Kriterien der logischen Formalisierung in der Arithmetik kennen lernen und mit Kriterien der anderen Theorien logischer Formalisierung vergleichen. Wenn wir noch Zeit haben, werden wir auch noch auf die Frage eingehen, inwieweit die Korrektheit mathematischer Formalisierungen bemessen werden kann.

  • Abschlusssitzung

    Wir werden uns in einer abschließenden Diskussion noch einmal einen Überblick über die unterschiedlichen Positionen verschaffen, um diese zu vergleichen und zu bewerten. Hierzu werden die Übersichten aus den einzelnen, überarbeiteten Referaten zusammenstellen. Diese Übersicht kann uns dann auch in Zukunft als Merkhilfe dienen. 

    Der Artikel "Semantic Criteria of Correct Formalization" stellt verschiedene Modelle der Formalizierung noch einmal anhand von De Morgan's Argument und semantischer Kriterien korrekter Formalisierung gegenüber. Die Lektüre wird nicht vorausgesetzt.

    Boolos et al, Computability and Logik stelle ich auf Nachfrage zur Verfügung. Ch. 4.1  behandelt das Halteproblem, Ch. 111 den Unentscheidbarkeitsbeweis von FOL.

    Das paper "An Argument against the Church-Turing Theorem" fasst das am 5.2 präsentierte Argument zusammen, das wir gerne nochmal diskutieren können.

    Bringen Sie Fragen / Diskussionsverschläge zur letzten Sitzung mit!