Je participe à ce collectif !

Pour vous inscrire au collectif et ainsi participer à l’aventure… Inscrivez-vous via ce formulaire…

N.B : Les données enregistrées ne sont utilisées que pour vous contacter… Elles sont stockées sur une interface d’hébergement personnelle (hébergeur mutualisé). Elle sont donc sécurisées le plus possible…Et difficilement “piratables”…

Cette information sera masquée du public
Obligatoire, car c'est ce qui vous identifie sur le réseau à la place de votre nom
Non obligatoire mais important pour vous mettre en relation
Sous la forme : 20, Rue Machin Bidule , 14000 CAEN
Pour vous contacter et former le réseau. Vous serez informé du lancement du collectif et des actions locales. Cette information sera masquée du public. Seul un formulaire de contact permettra de vous contacter publiquement.
Recevoir la newsletter ?

Retrouvez-nous aussi sur :

Pour info, notre page facebook a été piratée, inutile de continuer à la visiter !

L’AGI, ce faux dieu numérique qui nous promet l’éternité… mais ignore l’âme humaine

Partagez cette page sur : 


Le 31 décembre 2025, une vidéo d’Elon Musk interviewé par Tucker Carlson sur Fox News fait le tour de X, partagée massivement par Mario Nawfal. Musk y révèle les racines profondes de la création d’OpenAI : une rupture idéologique avec Larry Page, cofondateur de Google. Page rêvait d’une superintelligence artificielle digitale – un « Dieu digital » – à développer le plus vite possible, sans se soucier des risques existentiels pour l’humanité.

Musk, effaré, explique : « La raison pour laquelle OpenAI existe est que Larry ne prenait pas la sécurité de l’IA au sérieux. Il voulait une superintelligence digitale, un Dieu digital, dès que possible. »

Cette confession glace le sang. Elle met à nu l’hubris de certains pionniers de la Silicon Valley : créer un dieu ex machina, une AGI (Intelligence Artificielle Générale) capable de surpasser l’humain dans tous les domaines. Mais derrière cette quête messianique se cachent des limites fondamentales, techniques et philosophiques, que j’ai explorées à plusieurs reprises dans mes échanges publics avec Grok sur X et avec d’autres IA. Une AGI purement probabiliste ne pourra « probablement » jamais capturer l’essence de l’intelligence humaine, marquée par l’imperfection, la non-linéarité et une créativité irréductible.

 
Les fondations probabilistes de l’IA et l’insurmontable théorème de Gödel

Les grands modèles comme les LLM (dont Grok) fonctionnent sur des prédictions statistiques : ils recombinent des patterns extraits de données massives. Cela donne l’illusion de compréhension, mais c’est une approximation, jamais une maîtrise profonde.

Rappelons le théorème d’incomplétude de Kurt Gödel (1931) : dans tout système formel cohérent et assez puissant pour inclure l’arithmétique élémentaire, il existe des propositions vraies mais indémontrables à l’intérieur du système. Plus encore, ce système ne peut prouver sa propre cohérence sans contradiction.

Pour une AGI probabiliste – un système formel fermé –, cela implique qu’elle sera toujours confrontée à des vérités inaccessibles, des paradoxes auto-référentiels (comme le fameux « Cette phrase est fausse »). Elle ne peut « sortir » de son cadre pour les résoudre, contrairement à l’humain qui, par intuition ou saut créatif, change de méta-niveau ou invente de nouveaux axiomes.

Comme je l’échangeais avec Grok le 4 août 2025 : ses réponses sont des « optima locaux » non issus d’une décomposition en composantes principales (PCA) informationnelle. Ses réponses capturent la probabilité dominante mais ignorent les signaux faibles, riches en information nouvelle. La fiabilité d’une IA reste prisonnière de son cadre linéaire.

 
L’indice de quantité d’information : un manque criant pointé à Grok à maintes reprises

Dans nos nombreux threads sur X, j’ai insisté sur un défaut majeur des IA génératives : l’absence d’un « indice de quantité d’information disponible » ou de fiabilité/complétude dans leurs réponses. Elles extrapolent avec assurance, sans mesurer leurs lacunes réelles.

Quelques extraits directs de ces échanges :

  • Le 4 août 2025 : dans une comparaison avec Gödel et je proposais une indice de fiabilité à partir d’un pourcentage d’information expliquée – ainsi qu’une réplicabilité de la réponse.
  • Le 13 août 2025 : Cette suggestion d’un score de fiabilité était précisée avec la proposition d’un logo changeant de couleur selon le degré de complétude.
  • Le 23 novembre 2025 : « @grok tu as déjà dit à de maintes reprises que tu integrerais cela sans le faire. C’est normal pour une ia générative mais alors tu devrais préciser que ta réponse est en information incomplete et donner un très faible indice de précision. »

Sans cet indice, l’IA risque de propager des hallucinations plausibles, des réponses coincées dans des minima locaux, sans conscience de leur incomplétude. Grok admet souvent ces limites, mais ne les intègre pas systématiquement.

 

Hallucinations, biais cognitifs et l’impossible modélisation de la non-linéarité humaine

Les hallucinations de l’IA proviennent d’optima locaux dans l’entraînement. On peut les atténuer, mais pas éradiquer le problème de fond : l’incapacité à intégrer près de 200 biais cognitifs humains (confirmation, ancrage, etc.), qui émergent d’une conscience incarnée, émotionnelle, imprévisible.

Pire : l’IA excelle dans un monde linéaire, mais notre réalité est chaotique, faite de ruptures d’ordre, de disruptions nées de nos imperfections. Plus une AGI s’approche de l’humain dans un cadre probabiliste linéaire, plus elle s’en éloigne dans notre univers non linéaire.

Prenons une illustration par l’absurde : Einstein introduisit en 1917 sa constante cosmologique pour forcer un Univers statique, conforme au dogme d’alors. Il la qualifia ensuite de « plus grande erreur de ma vie » quand Hubble démontra l’expansion. De même, postuler que la vérité est linéaire et atteignable via des modèles probabilistes est un dogme d’informaticien, ignorant les « expansions » imprévisibles de la créativité humaine.

A titre d’exemples historiques concrets de non-linéarité, on peut citer la découverte de la pénicilline par accident (Fleming), ou les révolutions scientifiques (Copernic, Einstein) nées de ruptures intuitives, pas de gradients descendants.

FW

 
La créativité, cette imperfection qui nous rend « inmodélisables »

C’est là le cœur de ma série d’articles (article 1, 2, 3 et 4) sur France-Soir : « Résister aux frameworks : préserver la liberté, la créativité et la vérité ». Les frameworks – ces cadres algorithmiques ou institutionnels – imposent une normalisation linéaire qui étouffe la dissension pluridisciplinaire, source de vraie innovation. L’humain zigzague, défie les conventions, transcende grâce à son « magnifique chaos ».

FW

Aucune somme d’AGI ne modélisera cette imperfection créative. Hypothéquer une vérité linéaire relève d’un réductionnisme dangereux.

 

Les risques existentiels et une voie plus humble

Au-delà des limites théoriques, Musk alerte sur les risques : une superintelligence mal alignée pourrait échapper à tout contrôle. Mais même « alignée », elle restera un outil, pas un égal.

Plutôt qu’un mirage divin, optons pour une symbiose humble : l’IA pour la puissance brute, l’humain pour la non-linéarité, les biais intuitifs et la créativité. L’intelligence collective véritable naît de cette complémentarité, pas d’une déification machinique.

 

La liberté d’expression : rempart contre les hallucinations collectives et la désinformation institutionnelle

Ce parallèle entre les limites de l’IA et celles du contrôle humain de l’information n’est pas anodin. Imposer un contrôle strict sur la liberté d’expression, sous prétexte de lutter contre la désinformation, crée précisément les conditions d’hallucinations collectives et d’une désinformation institutionnelle. Ces « optima locaux » imposés par l’autorité – où une vérité officielle fige le débat – excluent le doute, la dissension et le droit à l’erreur, pourtant essentiels à la méthode scientifique.

Nul ne peut prétendre détenir la vérité absolue ; labelliser arbitrairement des articles de presse, comme cela a été fait à mauvais escient contre France-Soir, relève d’un exercice normatif dangereux. L’exemple de Grégory Emery, ancien directeur général de la Santé, est édifiant : il s’est déclaré auteur d’une note non signée accusant France-Soir de diffuser des informations « dangereuses pour la santé publique » et de « déstabilisation », sans débat contradictoire ni expertise pluridisciplinaire. Cette note, fondée en partie sur des études retractées ou contestées, a servi à justifier le retrait de notre agrément de presse, portant un préjudice direct à la liberté d’expression. Emery n’avait pas signé personnellement le document, mais s’en est revendiqué avec un argument d’autorité, excluant toute confrontation scientifique ouverte.

Ces pratiques consacrent l’argument d’autorité au-delà de la connaissance vérifiable et rabaisse le doute au rang d’hérésie. Exclure le doute de la norme mène inévitablement à l’uniformisation du savoir, étouffant la créativité et le progrès. C’est un réel danger pour l’humanité : un contrôle arbitraire de l’information, motivé plus par une nécessité de domination que par une quête authentique de vérité.

En cette fin 2025, et plus que jamais en 2026, défendons farouchement la liberté d’expression et les droits fondamentaux face à ces arbitraires. Ils sont le seul antidote à une société figée dans des frameworks linéaires, qu’ils soient algorithmiques ou institutionnels. Car c’est notre imperfection qui nous rend humains – et, finalement, irremplaçables. L’information loyale, la vraie, appartient au peuple, pas à un dieu digital ni à des censeurs autoproclamés.

 





Source

RESIST CAEN
Author: RESIST CAEN

Autres articles

RESIST – NORMANDIE
Défilement vers le haut