Zum Erschrecken vieler Theoretiker ist zwar die Sprache (nach
Aristoteles) dasjenige Merkmal, das "den Menschen" von allen anderen
Lebewesen unterscheidet, aber andererseits, wie spätestens Joseph
Weizenbaums basales Programm ELIZA und die informatischen Vorüberlegungen Alan
Turings erwiesen haben, erstaunlich leicht zu simulieren. Da wir trotzdem
dennoch so sehr vom Sprachzeichen abhängen, daß dies gar nicht mehr zu
Bewußtsein kommt, im direkten Sinne also unbewußt ist, hängt an diesem Problem
alles, besonders, wenn neue (Sprach)Programme sich anschicken, und auch auf
dieser Ebene zu täuschen. Nicht nur das sogenannte akademische Studium wird davon
betroffen, der Wahrheitswert von Sprache (und Schrift) überhaupt steht
plötzlich zur Diskussion.
Wir wollen also gemeinsam innehalten und uns der Situation zunächst historisch
nähern. Von der ersten künstlichen Analyse der Phoneme einer natürlichen
Sprache, dem griechischen Alphabet, über die wissenschaftlichen Bemühungen der
Philosophie, Sprachwissenschaft und Physiologie bis ins 19. und 20. Jahrhundert
hinein, bis hin zu den umstürzenden Erkenntnissen von Shannons
Informationstheorie einschließlich der Entropie natürlicher Sprachen, zu
Turingtest und heutiger Simulation, ja geradezu Mimikry von Stilen, Stimmen und
Textsorten.
Wir werden dabei verschiedenen theoretischen Entwürfen begegnen, die alle auf
ihre Weise zu der Fragestellung beigetragen haben, sei es aus dem Bereich der
Sprachphilosophie, der historischen Philologie, der Linguistik oder der
Psychoanalyse insbesondere der strukturalen Analyse Jacques Lacans.
Eine ausführliche und weiterführende Literaturliste wird am Beginn des Seminars
gegeben werden.
- Kursverantwortliche/r: Dr. phil, M.A. Gerhard Scharbert