Philosophie-De-L-Ia 3

Evolving Minds, Evolving Language: Metaphor as a Process of Conceptual Adaptation to Artificial Intelligence

Manuscrit (+diaporama)

Soutient que l’application croissante de termes cognitifs tels que « compréhension » ou « raisonnement » aux grands modèles de langage, y compris par des chercheurs techniquement avertis, ne relève ni d’attributions littérales ni d’un simple parler relâché, mais de la métaphore comme adaptation conceptuelle : l’extension créatrice de concepts au-delà de leur domaine d’origine sous la pression de besoins conceptuels. En mobilisant la tradition Strawson-Kant sur l’imagination et l’application des concepts, la sémantique inférentialiste, la théorie du rational framing de Bermúdez et le modèle de structure-mapping de Gentner, l’article propose un cadre à quatre composantes : transfert sélectif de liens inférentiels plutôt que de référence, rôle directeur des besoins conceptuels et de leur normativité aptique, possibilité d’évaluer empiriquement les inférences transférées grâce à l’interprétabilité mécaniste, et « carrière » des termes cognitifs appliqués à l’IA, depuis la comparaison novatrice jusqu’à une possible conventionnalisation. Il déplace ainsi le débat sur l’applicabilité littérale des termes cognitifs à l’IA vers des questions graduelles et empiriquement traitables sur l’aptitude de transferts inférentiels déterminés, tout en montrant que le vocabulaire cognitif employé pour l’IA a des enjeux évaluatifs et pratiques.

philosophie de l’IA, concepts, évolution du langage, inférence, grands modèles de langage, métaphore

Voir la présentation

Mechanistic Indicators of Understanding in Large Language Models

Philosophical Studies. 2026. Avec Pierre Beckmann. doi:10.1007/s11098-026-02513-1

Mobilise des données techniques détaillées issues de la recherche sur l’interprétabilité mécaniste (MI) pour soutenir que, bien que les LLM diffèrent profondément de la cognition humaine, ils font plus que comptabiliser des cooccurrences de mots : ils forment des structures internes que l’on peut comparer de façon féconde à différentes formes de compréhension humaine, telles que la compréhension conceptuelle, factuelle et principielle. Nous synthétisons les résultats les plus pertinents à ce jour de la MI tout en les inscrivant dans un cadre théorique intégrateur pour penser la compréhension dans les LLM. Le phénomène des « parallel mechanisms » montre toutefois que les différences entre les LLM et la cognition humaine sont aussi philosophiquement fécondes à considérer que les similarités.

explicabilité de l’IA, LLM, interprétabilité mécaniste, philosophie de l’IA, compréhension, changement conceptuel

Télécharger le PDF

Explainability through Systematicity: The Hard Systematicity Challenge for Artificial Intelligence

Minds and Machines 35 (35): 1–39. 2025. doi:10.1007/s11023-025-09738-9

Propose un cadre pour penser la « systématicité de la pensée », en distinguant quatre sens de l’expression, en désamorçant la prétendue tension entre systématicité et connexionnisme diagnostiquée par Fodor et Pylyshyn, et en identifiant une forme « dure » du défi de la systématicité qui continue de résister aux modèles connexionnistes.

IA, IA explicable, philosophie de l’IA, rationalité, systématicité, changement conceptuel

Télécharger le PDF