Motivation und Zielsetzung

Titel und Untertitel dieser Arbeit verraten ein für Linguisten nicht alltägliches Beschäftigungsfeld: die Untersuchung der natürlichen Sprache des Menschen mit Blick auf die Möglichkeiten ihrer maschinellen Realisierung. Dass dies nicht ein rein linguistisches Thema sein kann, ergibt sich schon aus der Natur der Sprache: Sie existiert in den Köpfen von Sprechern als konkrete neuronale Realisierung (interne Sprache), sie existiert im gleichen Maße aber auch als Wechselwirkungsphänomen zwischen den Sprechern einer Sprachgemeinschaft (externe Sprache). Kinder lernen scheinbar mühelos ihre Muttersprache, und dies v. a. durch Interaktion mit anderen Sprachteilnehmern, und eben nicht dadurch, dass ihnen irgendeine natürliche Sprache vollständig angeboren wäre. Die Linguistik hat nun u. a. die Aufgabe, Sprachverarbeitungsmodelle zu entwickeln, die sowohl Aspekte der internen wie externen Sprache berücksichtigen. Dies ist bis jetzt aber nie im Hinblick auf deren maschinelle Implementierung geschehen; vielmehr haben sich hierfür die Computerlinguistik und Künstliche Intelligenz eingefunden, um solche Schritte zu unternehmen. Daneben haben sich jedoch auch Zweige der Psychologie, Medizin und allgemein der Kognitionsforschung als genuin interdisziplinäre Wissenschaft der Untersuchung bestimmter Aspekte von Sprache gewidmet. Wir haben es bei einem Unterfangen, das Einsicht in das Wesen und Funktionieren von natürlicher Sprache liefert, also v. a. mit Disziplinen wie Linguistik, Psycholinguistik, Patholinguistik, Computerlinguistik und Künstlicher Intelligenz zu tun.

Sämtliche Ansätze haben eines gemeinsam: Sie sind zuallererst als Modelle oder Theorien für entweder natürliche oder maschinelle Sprachverarbeitung entwickelt worden; dies bedeutet natürlich nicht, dass beide Zweige sich nicht gegenseitig beeinflusst hätten. Es wurde jedoch nie versucht, einen Mittelweg dahingehend zu finden, dass man Aspekte natürlicher und künstlicher Informationsverarbeitungssysteme auf ihre generelle Kapazität zur Verarbeitung von Sprache hin untersucht und daraus Erkenntnisse ableitet, die für beide Seiten neue Einsichten liefern. Dies setzt voraus, dass man auch philosophische und informatische Fragen mit einbezieht. Wir haben es hier also mit einem Unterfangen zu tun, das durchaus kein triviales ist: eine Reihe von wissenschaftlichen Disziplinen wird notwendig, wenn man Fragen solcher Komplexität versucht zu stellen und zu beantworten.

Im Rahmen dieser Arbeit wird weniger angestrebt, sofort implementierfähige Lösungen für maschinelle Verstehenssysteme anzubieten. Es ist vielmehr zuerst dringend geboten, grundsätzlichere Fragen nach der Verarbeitungskapazität einer Maschine im Hinblick auf Sprache zu erörtern: Was kann ein Computer heutiger Bauart eigentlich tatsächlich an echter eigener 'Intelligenz' hervorbringen? Ist dieses algorithmisch gesteuerte Verhalten substantiell anders als das eines natürlichen Systems? Solche Fragen sind bis heute kaum gestellt, geschweige denn beantwortet worden. Es wurde auch vielfach das Scheitern der Künstlichen Intelligenz-Forschung heraufbeschworen; vielleicht liegt dies genau daran, dass solche Disziplinen sich lange um diese Auseinandersetzung herumgedrückt haben – wohl auch in der Furcht, sie könnte die entsprechenden Wissenschaftszweige obsolet werden lassen. Dass diese Furcht weitgehend unbegründet ist, wird auch ein Ergebnis dieser Arbeit sein. Ein weiteres wesentliches Resultat wird ein in Grundzügen angedeutetes Sprachverarbeitungsmodell sein, das sowohl mit natürlicher wie auch maschineller Sprachprozessierung kompatibel sein kann.

Eine Folge dieser Betrachtungsweise wird sein, dass vieles Bestehende zumindest in Frage gestellt wird – wenn auch nicht unbedingt ersatzlos gestrichen, so doch unter neuem Blickwinkel in die Diskussion eingebracht –, um damit die Basis für Reformulierungen von Problemen und Ansätzen zu schaffen (eine Art methodischer Zweifel in der Linguistik). Deshalb wird diese Arbeit in gewissem Sinne sehr progressiv, manchmal vielleicht sogar aggressiv erscheinen. Dies als Folge der Infragestellung bestehender Konzeptionen wird notwendig, wenn man auf die Ergebnisse aus der Linguistik der letzten Jahrzehnte blickt. Vieles darin hat sich auf die Untersuchung einzelner Aspekte der Sprache beschränkt: entweder wurde nur Formales wie Syntax betrachtet, nur Inhaltliches wie Semantik, oder nur Interaktionelles wie Pragmatik. Dass solche gewaltsamen methodischen Aufspaltungen und Reduktionen in einem System wie Sprache nicht zu Erkenntnissen geführt haben, die mehr 'erklären' können als nur oberflächliche Abfolgen von Wortarten in einer bestimmten Einzelsprache, wird durch die Abwesenheit von Modellen oder Theorien gezeigt, die sich auf mehr beziehen als nur auf rein sprachliche Phänomene. Sprache ohne Denken, Form ohne Inhalt zu untersuchen ist m. E. ein methodischer Kardinalfehler, den die Linguistik in den letzten Jahrzehnten begangen hat. Es konnte das Wesen und Funktionieren von Sprache deshalb nicht annähernd rekonstruiert werden, weil das, was menschliche Sprache eigentlich ausmacht, nämlich die Verwendung sprachlicher Zeichen, durch die methodischen Reduktionen aus dem Blickfeld geraten ist. Das Wesen eines Zeichens ist seine konventionale Verknüpfung von Form und Inhalt; Sprache konstituiert sich aus solchen Zeichen und dient v. a. dazu, Gedanken anderen zugänglich zu machen, indem man sie mit Hilfe sprachlicher Zeichen indirekt zur Verfügung stellt. Diese Prozesse nicht im Ganzen zu betrachten ist so, als würde man durch die Untersuchung der Wellen auf der Meeresoberfläche versuchen zu ergründen, welchem Muster sie folgen, ohne das, was alldem zugrunde liegt, nämlich die inneren und äußeren Umstände wie Wind, Meerestiere und Strömungsdynamik, zu beachten.



Inhalts-Überblick

Die Arbeit umfasst vier Inhaltskapitel 1 bis 4, von denen die beiden ersten sich mit den Grundfragen natürlicher und maschineller Informationsverarbeitung befassen, die letzten beiden die gewonnenen Erkenntnisse so weit wie möglich umsetzen.
Kap. 1 wirft einen Blick auf bestehende Konzeptionen maschineller Sprachverarbeitung; es werden Fragen nach 'Bedeutung' bei Mensch und Maschine gestellt: Dabei sind grundlegendste Wesensunterschiede der beiden Systeme zu erörtern; in diesem Zusammenhang ist auch die bestehende Kritik an der Künstlichen Intelligenz-These zu thematisieren, die sich an der Situationsgebundenheit menschlichen Daseins reibt; die Stichhaltigkeit solcher Argumente wird an Searles bekanntem ‘Chinesisches Zimmer’-Gleichnis abgewogen.
Kap. 2 befasst sich mit den Grundlagen jeglicher Sprachverarbeitung; dabei wird die Theorie des Radikalen Konstruktivismus zum Ausgangspunkt genommen; das Wesen von 'Bedeutung' wird weiter expliziert und in Zusammenhang mit sprachlichen Zeichen gebracht; das Zusammenspiel verschiedener ‘Erlebnisbereiche’ beim Menschen wird dargelegt und eine Reihe von Begriffen wie 'Gedanke', 'Konzept', 'Proposition', 'Begriff', 'Handlung', 'Absicht', 'Zweck', 'Stereotyp', 'Prototyp' usw. geklärt; hier wird auch untersucht, wie die Sprechakttheorie als Grundlage eines minimalen Handlungsmodells herangezogen werden kann; nicht zuletzt werden in diesem Zusammenhang auch Wissensarten und -strukturen angesprochen, und welche Art von Inferenzen notwendig sind.
Kap. 3 beinhaltet den Hauptteil der Arbeit; hier werden zunächst bestehende Konzeptionen zur natürlichen und künstlichen Sprachverarbeitung untersucht; deren Stärken und Schwächen werden Grundlage für die Modellierung eines stark erweiterten Lexikons sein, das Form, Inhalt und Intention sprachlicher Ausdrücke einbezieht; dabei wird präzisiert, welcher Natur einfache und komplexe sprachliche Zeichen sind und welche Aufgabe die Lexeme eines Lexikons eigentlich innehaben: es wird versucht zu klären, wie die holistischen Strukturen von Gedanken in kommunizierbare lineare Sprachstrukturen umzusetzen sind; hierfür sind auch Erweiterungen und Präzisierungen der Begrifflichkeit aus Kap. 2 durchzuführen; das für die Semantik wesentliche Kompositionalitätsprinzip wird erweitert und am Beispiel aufgezeigt, warum es allein ungenügend ist; im Zusammenhang mit der Abgrenzung kognitiver Modalitäten wie Lexikon und konzeptuelle Ebene wird dargelegt, welche Strukturen und Prozesse sie jeweils enthalten, und welche Gemeinsamkeiten und Unterschiede sie aufweisen; die theoretische Lexikon-Konzeption wird schließlich mit einer Reihe von Beispielen in ihrer Anwendung aufgezeigt, wobei auch notorisch schwierige Lexeme Beachtung finden; es wird auch thematisiert, dass und wie Lexeme spontan ihre Kategorien ändern können, und damit eine starre Fixierung von Wörtern auf ihre Wortarten widerlegt.
Kap. 4 schließlich nimmt vieles aus Kap. 3 auf, um die dort angedeuteten Konzeptionen zu vervollständigen und auszuarbeiten; das Wesen von konzeptuellen Merkmalen und Kategorien wird herausgearbeitet und eine auf das 3. Kap. abgestimmte Hierarchie von Kategorien dargestellt; die bekannten konzeptuellen Elemente wie Theta-Rollen oder Verbklassen werden in dieses Schema integriert und angepasst; an verschiedenen Beispielen werden damit grammatische Verhaltensweisen bestimmter Lexeme erklärt; eine Reihe kognitiver Operationen wird definiert, um damit grammatische Prozesse konzeptuell widerspiegeln zu können.
Die Erkenntnisse und Ansätze aus Kap. 3 und 4 sind als Andeutung eines Sprachverarbeitungsmodells gedacht, das dem Ziel dieser Arbeit gerecht zu werden versucht, nämlich der Zusammenführung von Konzeptionen für die natürliche und maschinelle Sprachverarbeitung, um damit dem globalen Ziel, der Vereinfachung bzw. Ermöglichung einer natürlichsprachlichen Alltagskommunikation zwischen Mensch und Maschine näher zu kommen.