Philosophie-Der-Ki 3

Evolving Minds, Evolving Language: Metaphor as a Process of Conceptual Adaptation to Artificial Intelligence

Manuskript (+Folien)

Argumentiert, dass kognitive Termini wie „Verstehen“ oder „Schlussfolgern“ immer häufiger auch von technisch versierten Forschenden auf große Sprachmodelle angewandt werden und dass solche Anwendungen weder als wörtliche Zuschreibungen noch als bloß lockere Rede zu begreifen sind, sondern als Metapher im Sinne begrifflicher Anpassung: als kreative Ausdehnung von Begriffen über ihren ursprünglichen Bereich hinaus unter dem Druck begrifflicher Bedürfnisse. Im Rückgriff auf die Strawson-Kant-Tradition zu Einbildungskraft und Begriffsanwendung, auf inferentialistische Semantik, auf Bermúdez’ Theorie rationaler Rahmung und auf Gentners Structure-Mapping-Theorie der Analogie entwickelt der Aufsatz einen Rahmen mit vier ineinandergreifenden Komponenten: selektive Übertragung inferenzieller Verknüpfungen statt von Referenz, die leitende Rolle begrifflicher Bedürfnisse und ihrer aptischen Normativität, die empirische Prüfbarkeit übertragener Verknüpfungen mithilfe mechanistischer Interpretierbarkeit sowie die „Karriere“ kognitiver Termini im KI-Kontext von neuartigen Vergleichen über inferenzielle Aushandlung bis hin zu möglicher Konventionalisierung. Damit verschiebt der Aufsatz die Debatte über die wörtliche Anwendbarkeit kognitiver Termini auf KI hin zu abgestuften und empirisch bearbeitbaren Fragen nach der Passung bestimmter inferenzieller Übertragungen und zeigt zugleich, dass die Wahl eines kognitiven Vokabulars für KI evaluativ und praktisch folgenreich ist.

Philosophie der KI, Begriffe, Sprachentwicklung, Inferenz, große Sprachmodelle, Metapher

Präsentation ansehen

Mechanistic Indicators of Understanding in Large Language Models

Philosophical Studies. 2026. Mit Pierre Beckmann. doi:10.1007/s11098-026-02513-1

Stützt sich auf detaillierte technische Evidenz aus der Forschung zur mechanistischen Interpretierbarkeit (MI), um zu zeigen, dass LLMs zwar tiefgreifend von menschlicher Kognition abweichen, aber mehr tun als Wort‑Ko‑Okkurrenzen zu zählen: Sie bilden interne Strukturen, die sich fruchtbar mit verschiedenen Formen menschlichen Verstehens vergleichen lassen, etwa mit begrifflichem, faktischem und prinzipiellem Verständnis. Wir synthetisieren die bislang relevantesten Befunde der MI und betten sie in einen integrativen theoretischen Rahmen ein, um über Verständnis in LLMs nachzudenken. Wie das Phänomen „parallel mechanisms“ zeigt, sind die Unterschiede zwischen LLMs und menschlicher Kognition jedoch ebenso philosophisch ergiebig wie die Ähnlichkeiten.

erklärbare KI, LLM, mechanistische Interpretierbarkeit, Philosophie der KI, Verständnis, Begriffswandel

PDF herunterladen

Explainability through Systematicity: The Hard Systematicity Challenge for Artificial Intelligence

Minds and Machines 35 (35): 1–39. 2025. doi:10.1007/s11023-025-09738-9

Bietet einen Rahmen, um über die „Systematizität des Denkens“ nachzudenken: Er unterscheidet vier Bedeutungen der Wendung, entschärft die vermeintliche Spannung zwischen Systematizität und Konnektionismus, die Fodor und Pylyshyn einflussreich diagnostiziert haben, und identifiziert eine „harte“ Form der Systematizitätsherausforderung, der konnektionistische Modelle weiterhin nicht gewachsen sind.

KI, erklärbare KI, Philosophie der KI, Rationalität, Systematizität, Begriffswandel

PDF herunterladen