L’intelligence artificielle (IA) est aujourd’hui sur toutes les lèvres. Présentée comme une révolution technologique majeure, elle alimente autant d’espoirs que de craintes. Les gouvernements veulent en faire un axe stratégique, les entreprises y voient un levier de compétitivité, et le grand public oscille entre émerveillement et paranoïa. Mais qu’en est-il vraiment ? Dans cette interview chez Thinkerview, Benjamin Bayart, expert en informatique et militant pour les libertés numériques, propose une analyse tranchée de cette technologie. Dans une interview percutante, il démonte certaines idées reçues et met en lumière les limites et dangers de l’IA. Pour lui, il y a beaucoup de « bullshit » dans le discours ambiant, et ce qu’on qualifie d’intelligence artificielle est souvent une simple illusion de progrès.

L’Intelligence Artificielle : Mythe ou Réalité ?

L’un des premiers points que souligne Benjamin Bayart est que l’IA n’est pas une intelligence au sens humain du terme.

– Elle ne comprend pas ce qu’elle fait.
– Elle ne réfléchit pas comme un humain.
– Elle fonctionne par analyse statistique et modèles probabilistes.

En réalité, ce que l’on appelle « intelligence artificielle » désigne plutôt des algorithmes capables de traiter de grandes quantités de données et de détecter des motifs. Par exemple :

  • La reconnaissance faciale.
  • La génération de texte (ChatGPT).
  • Les algorithmes de recommandation (Netflix, YouTube).

Mais ces technologies ne font que reproduire ce qu’on leur apprend, sans réelle compréhension du monde. Le terme « intelligence » est donc trompeur.

Le « Pipotron » de l’IA : des Réponses Sans Logique

Benjamin Bayart compare les IA génératives (comme ChatGPT) à des outils qui produisent du texte plausible mais pas nécessairement vrai.

Exemple frappant : Si on demande à ChatGPT de lister « les 100 premiers nombres premiers pairs », il va inventer une liste fausse, car il ne comprend pas les mathématiques. Il ne fait que réassembler des mots en fonction des probabilités statistiques. C’est pour cela que les IA peuvent produire des erreurs factuelles ou du « bullshit » convaincant, ce qui les rend dangereuses lorsqu’elles sont utilisées sans vérification humaine.

Les Dangers et Limitations de l’IA – Un Risque pour la Désinformation ?

Un des grands dangers de l’IA, selon Bayart, est son utilisation dans la création de fake news et deepfakes.

L’IA peut générer :

  • Des images truquées ultra-réalistes.
  • Des vidéos falsifiées avec des personnalités publiques.
  • Des voix synthétiques qui imitent des célébrités.

Cela pose un problème majeur pour l’information et la démocratie, car il devient difficile de distinguer le vrai du faux.

L’IA dans la Surveillance et le Contrôle Social

Benjamin Bayart alerte aussi sur l’usage de l’IA par les gouvernements et entreprises pour le flicage de masse. Il cite quelques exemples concrets :

  • Reconnaissance faciale utilisée en Chine pour surveiller la population.
  • Algorithmes des services sociaux pour détecter les fraudes, souvent biaisés contre les plus pauvres.
  • Systèmes de notation des citoyens, comme le « crédit social » en Chine.

L’IA, en automatisant des décisions, permet aux États et entreprises d’exercer un contrôle accru sur les individus. Certains avancent que l’IA pourrait révolutionner la médecine et la sécurité. Mais là encore, Benjamin Bayart nuance ces affirmations.

En Médecine : L’IA peut analyser des radios et détecter des cancers. Mais elle ne remplace pas un médecin, qui sait interpréter des anomalies mieux que n’importe quel algorithme.

Dans la Sécurité : L’IA est utilisée pour identifier des « suspects » à partir de données. Problème : les biais algorithmiques peuvent conduire à des fausses accusations. Dans ces domaines, l’IA est un outil d’aide, mais pas une solution miracle.

L’Intelligence Artificielle : Une Façon de Déguiser les Décisions Politiques ?

Benjamin Bayart met en lumière une stratégie politique inquiétante : utiliser l’IA pour justifier des décisions impopulaires. Comme il le dit en se moquant : « Ce n’est pas moi, c’est l’ordinateur ».

Plus précisément il cite des exemples comme « Ce n’est pas le gouvernement qui a coupé vos allocations, c’est l’algorithme. » ou encore « Ce n’est pas moi qui vous refuse le crédit, c’est la note attribuée par notre IA. »
Cela permet aux dirigeants de se dédouaner de leurs responsabilités, en laissant croire que les décisions sont objectives et neutres.

L’IA et la Politique : Un Danger pour la Démocratie ?

Benjamin Bayart souligne que l’IA pourrait être utilisée pour influencer les élections. Les risques incluent :

  • Micro-ciblage des électeurs via les réseaux sociaux.
  • Manipulation des opinions avec des fake news automatisées.
  • Altération du débat public en noyant Internet sous des contenus artificiels.

Pour lui, l’IA ne doit pas devenir un instrument au service des puissants, mais rester un outil contrôlé démocratiquement.

Loin d’être une technologie omnipotente, l’intelligence artificielle est surtout un outil marketing surcoté. Benjamin Bayart rappelle que :

  • L’IA n’est pas vraiment intelligente.
  • Elle peut être utile dans certains domaines, mais reste un outil à manier avec précaution.
  • Elle n’est pas une menace en soi, mais son usage peut l’être, notamment dans la surveillance et la désinformation.

L’essentiel est donc de ne pas se laisser aveugler par le discours commercial et politique qui entoure l’IA. Plutôt que de fantasmer sur des machines pensantes, il faut encadrer son usage et éviter qu’elle devienne un prétexte pour des décisions autoritaires.