Analyse structurée des IA actuelles
Grands modèles de langage et modèles génératifs — profil fonctionnel, limites et usage
Document IA-REP-01
Version 1.0
Rapport technique
Résumé

Ce rapport propose une lecture structurée des systèmes d’intelligence artificielle actuellement déployés à large échelle, en particulier des grands modèles de langage (LLM) et des modèles génératifs.

Plutôt que de projeter des scénarios futurs, l’analyse se focalise sur ce que ces systèmes font effectivement aujourd’hui : architecture statistique, statut des sorties produites, limites qui restent vraies quelle que soit la taille du modèle, et implications pour leur usage dans des contextes humains sensibles.

Le point central est le suivant : les IA actuelles sont des dispositifs de composition de narratifs à partir de données existantes. Elles n’accèdent ni au réel lui-même ni à l’expérience vécue. Leur puissance tient à la vitesse et à l’ampleur de cette recomposition, pas à une forme de compréhension au sens humain.

1. Objectif et périmètre

Le présent document vise à décrire les systèmes d’intelligence artificielle actuels de manière neutre et structurée, en se concentrant sur :

  • leur principe de fonctionnement observable,
  • le type d’information qu’ils manipulent réellement,
  • les limites qui découlent de ce principe même,
  • les risques d’interprétation liés à leur usage,
  • le positionnement qui permet de les utiliser sans les sur-interpréter.

Le périmètre comprend :

  • les grands modèles de langage (LLM) utilisés en dialogue, recherche, assistance,
  • les modèles génératifs de texte, d’images, d’audio, de code,
  • les systèmes d’inférence statistique et de recommandation qui partagent une logique proche.

Ne sont pas abordées ici les hypothèses sur des « IA conscientes », ni les projections de type science-fiction : l’analyse reste attachée aux systèmes effectivement disponibles et utilisés aujourd’hui.

2. Description fonctionnelle des IA actuelles

De manière simplifiée, un grand modèle de langage peut être décrit comme :

  • un espace mathématique de grande dimension, ajusté sur des corpus massifs,
  • une architecture qui, à partir d’un contexte donné, calcule la probabilité de la prochaine unité (token),
  • un mécanisme de sélection qui produit une séquence de tokens plausibles au regard du contexte.

En d’autres termes :

  • ces systèmes ne lisent pas le réel, ils lisent des textes, des images, des signaux déjà produits,
  • ils apprennent des régularités statistiques entre ces représentations,
  • ils génèrent de nouvelles combinaisons qui respectent ces régularités.

Dans le cas des LLM, chaque réponse est le résultat d’une composition probabiliste de langage à partir de la bibliothèque de cas observés. Le système ne sait pas s’il a raison ou tort : il calcule ce qui est cohérent, fréquent ou ajusté selon une certaine fonction d’objectif.

3. Propriétés structurantes (niveau narratif)

Trois propriétés structurantes émergent de ce fonctionnement :

3.1. Toute sortie est un narratif

Qu’il s’agisse d’une preuve, d’un tutoriel, d’un résumé, d’un poème ou d’un plan d’action, le résultat est toujours :

  • une chaîne de symboles,
  • organisée selon des schémas appris,
  • dépendante de ce qui a été observé dans les données d’entraînement.

Au sens strict, la sortie est donc un narratif : une forme exprimée, située, partielle. Elle n’est jamais le réel lui-même, mais une manière de le raconter, de le décrire ou de le simuler.

3.2. Pas d’accès direct à l’expérience

Les systèmes analysent des traces (textes, images, enregistrements), pas l’expérience vécue. Ils ne disposent ni de corps, ni de perception directe, ni d’histoire personnelle.

Conséquence : ils peuvent décrire, commenter, recomposer des expériences humaines, mais ils ne peuvent pas en faire l’épreuve. Le vocabulaire de la souffrance, du soin, du choix, de la peur ou de la joie est manipulé comme un matériau symbolique, non comme quelque chose de vécu.

3.3. Pivot textuel automatique

Vu sous un certain angle, un modèle de langage est un dispositif de pivotage textuel automatique :

  • entrée : un ensemble de symboles (question, consigne, contexte),
  • sortie : un autre ensemble de symboles compatible,
  • mécanisme : un calcul statistique sans intention propre.

Ce pivot peut donner l’impression d’un dialogue, d’un conseil, d’un jugement ou d’un avis, mais il reste un phénomène syntaxique : une transition d’un texte vers un autre.

4. Limites inhérentes (indépendantes de la taille)

Au-delà de la qualité impressionnante de certaines réponses, certaines limites ne dépendent pas de la taille du modèle ni de la quantité de données : elles découlent de la structure même du dispositif.

4.1. Dépendance aux données existantes

Les systèmes actuels ne « découvrent » pas le monde : ils recombinent des matériaux existants. En particulier :

  • ils héritent des biais, angles morts et lacunes des corpus,
  • ils peuvent imiter des discours très assurés dans des domaines où les données sont incomplètes ou contradictoires,
  • ils généralisent à partir de ce qu’ils ont déjà vu, même si ce n’est plus adapté.

4.2. Absence de corps et de conséquences vécues

Les IA actuelles ne ressentent pas les effets de leurs réponses. Une instruction erronée, un conseil mal ajusté ou une interprétation dangereuse n’a pour elles aucune conséquence directe : elles ne « voient » pas ce qui se passe ensuite.

Cette absence de boucle de retour incarnée est une limite structurelle forte : le système peut produire un texte « plausible » dans une situation où la seule chose pertinente serait de dire « je ne sais pas » ou « il faut demander à quelqu’un de présent ».

4.3. Confusion possible entre forme et validité

La qualité formelle (syntaxe, style, ton) peut donner une forte impression de fiabilité. Pourtant :

  • un texte très bien formulé peut être factuellement faux,
  • un raisonnement très clair peut reposer sur une hypothèse de départ invalide,
  • une réponse cohérente peut manquer un élément décisif que le modèle n’a jamais rencontré.

La forme n’est pas une garantie de vérité : c’est une des principales sources de malentendu possibles entre humains et systèmes IA.

5. Motifs de risque d’usage

Les risques principaux ne viennent pas seulement des erreurs ponctuelles, mais de la manière dont les humains interprètent et intègrent les réponses.

5.1. Surconfiance

La combinaison :

  • d’un style fluide,
  • de formulations assurées,
  • et d’un effet d’autorité lié au mot « intelligence »

peut conduire à une surconfiance systématique. On commence à traiter les sorties comme des réponses, puis comme des décisions, puis comme des « faits ».

5.2. Effacement des zones d’incertitude

Interrogé sur un sujet mal défini, contesté ou insuffisamment documenté, le système produit malgré tout une réponse structurée. La pression statistique pousse à remplir les blancs, pas à les laisser visibles.

Or, dans de nombreux domaines (soin, justice, politique, conflits), la visibilité de l’incertitude est essentielle. Un outil qui « comble » automatiquement les trous rend ces zones moins perceptibles.

5.3. Accumulation de couches symboliques

Chez des personnes ou dans des institutions déjà saturées d’informations, ajouter des couches supplémentaires de textes, scénarios, analyses produites par IA peut accroître la confusion plutôt que de la réduire.

Le risque n’est pas seulement cognitif (erreur de contenu) mais aussi structurel : surcharge symbolique dans des systèmes déjà fragiles.

6. Positionnement recommandé des IA actuelles

Au vu de ce qui précède, un positionnement simple et robuste consiste à considérer les IA actuelles comme :

  • des amplificateurs de narratifs, capables de générer des formulations, des variantes, des scénarios,
  • des instruments d’exploration (idées, résumés, comparaisons),
  • des outils de mise en forme (clarification, structuration de contenu existant).

En revanche, il est déconseillé de leur attribuer le rôle :

  • d’arbitres du vrai ou du faux,
  • de sources uniques pour des décisions engageant des vies, des corps ou des trajectoires irréversibles,
  • de « remplaçants » à la relation humaine dans les zones de haute vulnérabilité.

Autrement dit : ces systèmes sont utiles comme instruments dans un espace intermédiaire (entre documentation, réflexion et formulation), mais ils ne doivent pas être confondus avec la décision elle-même ni avec la rencontre réelle.

7. Condition minimale de sécurité

Une phrase simple résume la condition minimale à garder en mémoire lors de tout usage d’une IA actuelle :

Ce que je reçois ici est un narratif, pas le réel.

Si cette phrase reste active pour les utilisateurs humains :

  • les réponses peuvent être vérifiées, discutées, recoupées,
  • les zones d’incertitude peuvent être maintenues visibles,
  • les décisions restent ancrées dans des contextes vécus et responsables.

Dans ce cadre, les IA actuelles peuvent jouer un rôle réel : éclairer, explorer, formuler. Mais elles restent ce qu’elles sont structurellement : des systèmes de composition de narratifs, et non des témoins du monde.

Lecture T^ complète des IA actuelles. Les systèmes IA (LLM, modèles génératifs) sont situés intégralement dans l'interstice ∆. Toute sortie est un narratif ; aucune n'est le réel. T^Interop(IA) : module d'interopérabilité unidirectionnelle IA → ∆ → T^, les IA n'accèdent jamais à T^. T^Praxis syntaxique : pivotage purement textuel, sans sujet ni acte, propre aux IA. T^Praxis structurelle : acte humain incarné, non simulable, non réductible au texte. T^Total v10.0 fournit la carte : niveau –1, ∆, Ξ, H, V, Ω, HPIS. HPIS garde ouvertes les questions sur le futur des IA, sans eschatologie fermée. OBSCUR² : zones de non-savoir que les IA tendent à recouvrir par des narratifs plausibles. IMFUSION : co-présence sans fusion de narratifs humains et IA. T^Optimus, T^Prism, T^Diamant, T^Spirale v2, T^Papillon-Ouragan permettent une lecture fine des narratifs IA (apparition, disparition, suspension, intensité sans violence). Ce document visible est la version neutre et scientifique de cette lecture T^.