Kognitive Künstliche Intelligenz (2025)
ISBN
978-3-662-69497-8

 

Inhaltsübersicht

 

Kapitel 1 – Einführung

Kapitel 2 – Was ist Kognitive Künstliche Intelligenz?

 

I Wissensrepräsentation und Logik

 

Kapitel 3 – Grundlagen der Wissensrepräsentation

Kapitel 4 – Aussagenlogik

Kapitel 5 – Prädikatenlogik

Kapitel 6 – Schlussfolgern und Beweisen

Kapitel 7 – Logische Programmierung

 

II Kognition und Modellierung

 

Kapitel 8 – Algorithmen und formale Sprachen

Kapitel 9 – Problemrepräsentation

Kapitel 10 – Allgemeine Suchstrategien und Komplexität

Kapitel 11 – Heuristiken

Kapitel 12 – Kognitive Architekturen

Kapitel 13 – Lernen von Regeln

Kapitel 14 – Lernen von implizitem Wissen

 

III Ausgewählte Anwendungen

 

Kapitel 15 – Lernen und Expertise

Kapitel 16 – Intelligente Tutorsysteme

Kapitel 17 – Sprachverarbeitung: Syntaxanalyse

Kapitel 18 – Sprachverarbeitung: semantische Analyse

Kapitel 19 – Mentale Modelle beim Textverstehen

Kapitel 20 – Sprachverstehen: Von Eliza zu Transformermodellen

Kapitel 21 – Ein Ausblick – Wie geht es weiter? 

 

 

 

Kapitel 1 – Einführung

 

Kognitive Künstliche Intelligenz (KKI) ist eine junge interdisziplinäre Wissenschaft, die sich mit natürlichen wie künstlichen, konkreten wie abstrakten kognitiven Prozessen auseinandersetzt und prädiktive sowie erklärbare algorithmische Modelle für diese entwickelt.

zurück zur Inhaltsübersicht

 

Kapitel 2 – Was ist Kognitive Künstliche Intelligenz?

 

Dieses Kapitel stellt die Schnittstelle von Kognitiver Psychologie und Künstlicher Intelligenz vor: die Modellierung kognitiver Prozesse. Historische Entwicklungen – von der kognitiven Wende über die Anfänge der Informatik bis zu Turing, McCarthy, Minsky, Newell und Simon – werden skizziert. Es wird gezeigt, warum formale Theorien notwendig sind, um Präzision, Konsistenz und Prüfbarkeit zu gewährleisten. Der Informationsverarbeitungsansatz beschreibt den Geist als Stufenmodell (sensorischer Speicher, Arbeits- und Langzeitgedächtnis) und wird durch empirische Befunde ergänzt. Philosophische Grundlagen wie das Informationsverarbeitungsparadigma, die Physical-Symbol-System-Hypothese und die komputationelle Theorie des Geistes werden kurz eingeführt. Abschließend wird die generelle Idee hinter der Methode der kognitiven Modellierung vorgestellt.

zurück zur Inhaltsübersicht

 

I Wissensrepräsentation und Logik

 

Kapitel 3 – Grundlagen der Wissensrepräsentation

 

Dieses Kapitel behandelt, was Wissen ist, wie es im Gedächtnis und in Computersystemen repräsentiert wird und welche Wissensarten unterschieden werden. Symbolstrukturen repräsentieren Überzeugungen und können durch logische Regeln verarbeitet werden. Drei Kernprozesse werden vorgestellt: Erwerb, Abruf und Schlussfolgern. Eingeführt werden Repräsentationsformate wie Logik, semantische Netze, Schemata, Skripts, Produktionsregeln und analoge Repräsentationen. Konzepte wie Mengenlehre, Relationen und Hierarchien werden erklärt, semantische Netze und Schemata vertieft. Damit wird die Grundlage für formale Methoden gelegt.

zurück zur Inhaltsübersicht

 

Kapitel 4 – Aussagenlogik

 

Dieses Kapitel führt die Aussagenlogik als formales System zur Darstellung von Wissen und Ableitung von Schlüssen ein. Sie operiert mit Aussagen, die wahr oder falsch sind, und Junktoren wie „und“, „oder“ oder „wenn … dann“. Syntax und Semantik werden erläutert, ebenso Eigenschaften wie Allgemeingültigkeit und Widerspruchsfreiheit. Schlussregeln wie Modus ponens, Modus tollens und Resolution werden eingeführt und an Beispielen veranschaulicht.

zurück zur Inhaltsübersicht

 

Kapitel 5 – Prädikatenlogik

 

Dieses Kapitel behandelt die Prädikatenlogik, die Aussagen in Individuen und Prädikate zerlegt und so Eigenschaften und Relationen darstellt. Ihre Sprache umfasst Konstanten, Variablen und Funktionen, aus denen mit Junktoren und Quantoren („Alle“, „Einige“) komplexe Aussagen gebildet werden. Semantik wird über Modelle erklärt. Ein Anwendungsfeld ist die Formalisierung semantischer Netze, die in der kognitiven Modellierung zur Wissensrepräsentation und zur Simulation von Gedächtnisprozessen dienen.

zurück zur Inhaltsübersicht

 

Kapitel 6 – Schlussfolgern und Beweisen

 

Dieses Kapitel zeigt, wie aus Annahmen implizites Wissen abgeleitet wird. Das Resolutionsverfahren – mit Normalformen, Unifikation und Resolution – bildet die Grundlage moderner Schlusssysteme sowie der logischen Programmiersprache Prolog. Der historische Bezug zum maschinellen Beweisen in der frühen KI wird erläutert.

zurück zur Inhaltsübersicht

 

Kapitel 7 – Logische Programmierung

 

Dieses Kapitel zeigt, wie logische Methoden praktisch umgesetzt werden. Prolog wird eingeführt und anhand semantischer Netze erklärt: Fakten, Regeln und Anfragen. Die Beziehung zur Prädikatenlogik und zum Resolutionsverfahren wird dargestellt, Prolog-Programme als Mengen von Horn-Klauseln interpretiert.

zurück zur Inhaltsübersicht

 

II Kognition und Modellierung

 

Kapitel 8 – Algorithmen und formale Sprachen

 

Dieses Kapitel führt in die theoretische Informatik ein und zeigt ihre Bedeutung für die kognitive KI: Programme können genutzt werden, um kognitive Prozesse zu modellieren und zu prüfen. Dafür sind theoretische Konzepte nötig, die Programme beschreiben, vergleichen und bewerten. Algorithmen werden am Beispiel des Euklidischen Algorithmus erläutert, inklusive Kriterien wie Korrektheit und Effizienz. Turing-Maschinen werden als universelles Berechnungsmodell eingeführt, ergänzt durch die Church–Turing-These. Formale Sprachen und Grammatiken strukturieren Eingaben, die Chomsky-Hierarchie ordnet Sprachtypen nach ihrer Mächtigkeit.

zurück zur Inhaltsübersicht

 

Kapitel 9 – Problemrepräsentation

 

Dieses Kapitel behandelt Probleme, deren Lösungen nicht direkt vorliegen, sondern erst gefunden werden müssen. Problemlösen wird als Suche in Zustandsräumen beschrieben. Dafür werden grundlegende Strukturen wie Listen, Bäume und Graphen eingeführt. Ein Problem besteht darin, einen Anfangszustand über Operatoren in einen Zielzustand zu überführen. Je nach Komplexität des Zustandsraums sind einfache oder aufwändige Verfahren erforderlich.

zurück zur Inhaltsübersicht

 

Kapitel 10 – Allgemeine Suchstrategien und Komplexität

 

Dieses Kapitel behandelt allgemeine Suchverfahren zur Problemlösung. Zunächst wird die Tiefensuche eingeführt, bei der ein Weg möglichst weit in die Tiefe verfolgt wird, bis entweder ein Ziel oder eine Sackgasse erreicht ist. Demgegenüber untersucht die Breitensuche zunächst alle Nachfolger eines aktuellen Knotens. Abschließend werden die Verfahren im Hinblick auf Effizienz, Vollständigkeit und Optimalität verglichen. Damit bilden beide grundlegende uninformierte Suchstrategien, die im nächsten Kapitel durch Heuristiken zu effizienteren Verfahren weiterentwickelt werden.

zurück zur Inhaltsübersicht

 

Kapitel 11 – Heuristiken

 

Dieses Kapitel erweitert die zuvor eingeführten Suchverfahren um den Einsatz von Heuristiken. Während uninformierte Verfahren alle Möglichkeiten durchsuchen müssen, können heuristische Strategien die Suche durch Bewertungsfunktionen steuern, die bisherige Kosten und geschätzte Restkosten kombinieren. Dadurch werden Wege, die nicht zur Lösung führen, früh ausgeschlossen.

Heuristische Verfahren steuern die Suche durch Schätzfunktionen, die Kosten und Restaufwand berücksichtigen. Beispiele sind Hill Climbing, Best-first-Suche und der A*-Algorithmus. Constraint-Satisfaction-Probleme zeigen, wie Einschränkungen den Lösungsraum verkleinern.

zurück zur Inhaltsübersicht

 

Kapitel 12 – Kognitive Architekturen

 

Dieses Kapitel führt Kognitive Architekturen ein. Diese modellieren grundlegende kognitive Prozesse in einem einheitlichen Rahmen. Bekannte Ansätze sind ACT-R, Soar und Clarion. Sie integrieren Wahrnehmung, Gedächtnis, Sprache, Lernen und Problemlösen. ACT-R nimmt dabei eine zentrale Stellung ein. Die Architektur unterscheidet deklaratives Wissen in Form von Chunks und prozedurales Wissen in Form von Produktionsregeln. Kognitive Prozesse entstehen durch das Zusammenspiel dieser beiden Komponenten: Produktionsregeln greifen auf Gedächtnisinhalte zu und steuern so Verhalten, Lernen und Problemlösen. Damit lassen sich sowohl experimentelle Befunde aus der Kognitionspsychologie simulieren als auch Anwendungen in Bereichen wie Problemlösen oder Sprachverarbeitung entwickeln. Architekturen dienen als Brücke zwischen psychologischen Befunden und KI-Verfahren.

zurück zur Inhaltsübersicht

 

Kapitel 13 – Lernen von Regeln

 

Dieses Kapitel behandelt die Bildung und Generalisierung von Begriffen. Intensionale Definitionen erfassen Merkmale, extensionale listen Objekte auf. Aus Beispielen lassen sich Regeln durch Generalisierung ableiten. Entscheidungsbäume sind ein typisches Verfahren, das Merkmale identifiziert und Regeln erzeugt – sowohl für KI-Anwendungen als auch zur Modellierung kognitiver Lernprozesse.

zurück zur Inhaltsübersicht

 

Kapitel 14 – Lernen von implizitem Wissen

 

Dieses Kapitel führt in künstliche neuronale Netze (KNN) ein. Sie abstrahieren biologische Neuronen und modellieren Informationsverarbeitung, ohne das Gehirn exakt nachzubilden. Einfache Netze können logische Funktionen abbilden, komplexere Architekturen vielfältige kognitive Prozesse simulieren. Vom Perzeptron über Mehrschichtnetze mit Backpropagation werden Lernverfahren wie überwachtes, unüberwachtes, Hebbsches Lernen und die Delta-Regel vorgestellt. KNN dienen in der Kognitionswissenschaft als Modelle, die zeigen, wie komplexe Leistungen aus einfachen Einheiten entstehen.

zurück zur Inhaltsübersicht

 

III Ausgewählte Anwendungen

 

Kapitel 15 – Lernen und Expertise

 

Dieses Kapitel führt in zentrale Konzepte des Lernens und den Erwerb von Expertise ein. Lernen umfasst Konditionierung, Fakten- und Konzeptwissen, Problemlösen, Metawissen und motorische Fähigkeiten. Behavioristische Ansätze betonen Reiz-Reaktions-Verknüpfungen, kognitive Modelle interne Repräsentationen. Der Erwerb von Fertigkeiten verläuft vom deklarativen zum prozeduralen Wissen, unterstützt durch Übung, Generalisierung und Analogie. Expertise entsteht durch umfangreiches, gut organisiertes Wissen und automatisierte Prozesse. Wissensakquisition erfasst solches Expertenwissen, ist aber durch implizite Anteile erschwert. Expertensysteme – mit Wissensbasis und Inferenzmechanismus – bilden diese Strukturen technisch ab.

zurück zur Inhaltsübersicht

 

Kapitel 16 – Intelligente Tutorsysteme

 

Dieses Kapitel behandelt die Entwicklung und Architektur Intelligenter Tutorsysteme (ITS), deren Ziel die Förderung individuellen Lernens ist, nicht die Ersetzung von Lehrkräften. Sie verbinden seit den 1970er-Jahren Domänenwissen, Lernendenmodelle und didaktische Strategien. Dies beinhaltet Fachwissen, ein Modell des Lernenden und didaktisches Wissen. Systeme wie Scholar oder Buggy zeigen die Umsetzung mit semantischen Netzen, Produktionsregeln und Fehlerbibliotheken. Moderne ITS nutzen maschinelles Lernen, fallbasierte Ansätze und generative KI, um Sprache, Diagnose und Lerninteraktion zu erweitern.

zurück zur Inhaltsübersicht

 

Kapitel 17 – Sprachverarbeitung: Syntaxanalyse

 

Dieses Kapitel widmet sich der Syntaxanalyse als Kernbereich der Sprachverarbeitung. Zentrale Ebenen sind Phonologie, Morphologie, Syntax, Semantik und Pragmatik. Mit endlichen Regelmengen lassen sich unendlich viele Sätze generieren, wie Chomskys Grammatik zeigt. Parser arbeiten top-down, bottom-up oder kombiniert und liefern zugleich Modelle für menschliches Sprachverstehen.

zurück zur Inhaltsübersicht

 

Kapitel 18 – Sprachverarbeitung: semantische Analyse

 

Dieses Kapitel stellt die Grundlagen formaler Semantik vor. Ausgangspunkt ist Freges Unterscheidung von Sinn und Referenz sowie von Extension und Intension. Lexikalische und strukturelle Semantik erklären Bedeutungen von Wörtern und komplexen Ausdrücken. Wahrheitstheoretische Ansätze, Tarskis Meta-/Objektsprache und Kripkes mögliche Welten bilden die Grundlage formaler Modelle. Bedeutung bleibt jedoch stets durch mentale Repräsentationen vermittelt.

zurück zur Inhaltsübersicht

 

Kapitel 19 – Mentale Modelle beim Textverstehen

 

Dieses Kapitel zeigt, wie verschiedene Ansätze zur Bedeutungsrepräsentation beim Textverstehen zusammenwirken und welche Rolle mentale Modelle dabei spielen. Vorgestellt werden Merkmalstheorien, semantische Netze, Prototypen, Bedeutungspostulate und prozedurale Semantik. Textverstehen erfordert Strukturen, die Weltwissen und Kontext einbeziehen, etwa bei Anaphern. Diskursrepräsentationstheorien und semantische Netze ermöglichen Modellierung und Fragebeantwortung. Mentale Modelle ergänzen diese Verfahren, indem sie empirische Befunde erklären und situative Zusammenhänge abbilden.

zurück zur Inhaltsübersicht

 

Kapitel 20 – Sprachverstehen: Von Eliza zu Transformermodellen

 

Dieses Kapitel zeichnet die Entwicklung der Sprachverarbeitung von regelbasierten Systemen bis zu heutigen Transformermodellen nach. Beispiele sind Watson, Sprachassistenten wie Alexa und großskalige Dialogsysteme wie Meena oder BlenderBot. Watson demonstrierte die Integration symbolischer und statistischer Verfahren, erreichte jedoch kein echtes Sprachverstehen. Moderne Modelle arbeiten mit Milliarden Parametern und zeigen zugleich Grenzen, etwa Verzerrungen in Trainingsdaten. Damit wird deutlich, dass Sprachverstehen technische Leistungsfähigkeit mit philosophischen Fragen nach Bedeutung, Bewusstsein und Ethik verbindet.

zurück zur Inhaltsübersicht

 

Kapitel 21 – Ein Ausblick – Wie geht es weiter? 

 

In diesem Buch haben Sie verschiedene Methoden der Kognitiven KI kennengelernt. Wenn Sie Ihr Wissen vertiefen möchten, bieten die Abschnitte am Ende jedes Kapitels eine erste Möglichkeit, sich in die spannende Welt der Kognitiven KI zu begeben. Vielleicht möchten Sie die Methoden aber anwenden und selber ein kognitiver KI-ler werden? Dazu haben wir ein paar Vorschläge zusammengestellt:Dieses Repertoire an einsetzbaren Methoden wird Ihnen erlauben, aktiv Forschung zu betreiben. Sie haben das Rüstzeug, eigene Modelle zu entwickeln und sich von der Psychologie, der Kognitionswissenschaft und der KI inspirieren zu lassen.

zurück zur Inhaltsübersicht