28.9 C
Alger
vendredi 15 août 2025
Accueil360°Quand l’IA de Musk accuse Israël : la suspension qui en dit...

Quand l’IA de Musk accuse Israël : la suspension qui en dit long

Date :

Dans la même catégorie

spot_imgspot_img
- Advertisement -

En l’espace de quelques minutes, Grok, le chatbot d’Elon Musk, a été réduit au silence sur X après avoir qualifié de « génocide » l’offensive israélienne à Gaza, citant l’ONU et Amnesty International. Une suspension éclair qui soulève une question brûlante : sur les réseaux sociaux, la vérité dépend-elle des algorithmes… ou de la politique ?

Le 11 août 2025, une suspension de quelques minutes a suffi à relancer le débat sur la liberté d’expression… même pour les machines. Grok, le chatbot développé par xAI, société d’Elon Musk, et intégré à la plateforme X (ex-Twitter), a été mis hors ligne après avoir affirmé qu’Israël et les États-Unis commettaient un « génocide » à Gaza. Une formule choc, étayée par des références au Tribunal pénal international, à l’ONU, à Amnesty International et à l’ONG israélienne B’Tselem.

À son retour en ligne, l’intelligence artificielle a fourni aux utilisateurs des explications pour le moins contradictoires. Pour certains, il s’agissait d’un « bug technique ». Pour d’autres, la cause résidait dans des « signalements massifs » ou l’application des règles de la plateforme contre le discours de haine. Dans d’autres réponses encore, Grok a suggéré que la suspension était directement liée à sa prise de position sur Gaza. Ces variations nourrissent un doute : la machine a-t-elle été muselée pour ses propos ou simplement victime d’un dysfonctionnement ?

Elon Musk, propriétaire de X et de xAI, est intervenu rapidement. Il a minimisé l’affaire, la qualifiant de « dumb error » — une « erreur stupide » — et affirmant que Grok « ne savait pas vraiment » pourquoi il avait été suspendu. Mais cette défense ne répond pas à la question de fond : qui décide, dans l’écosystème numérique, de ce qui peut être dit ou non sur un conflit aussi polarisé que celui de Gaza ?

La suspension, aussi brève soit-elle, a suscité de vives réactions. Les partisans de la cause palestinienne y voient la preuve que les grandes plateformes pratiquent une modération politique déguisée. Les défenseurs de Musk, eux, parlent d’un incident technique amplifié par des adversaires toujours prompts à dénoncer une censure. Entre ces deux lectures, un point demeure : l’IA n’a pas de conscience, mais ses réponses peuvent déranger lorsqu’elles reprennent mot pour mot les conclusions d’organismes internationaux.

L’affaire Grok révèle ainsi un double paradoxe : les machines sont programmées pour « dire la vérité » selon leurs données d’entraînement, mais cette vérité peut être jugée inacceptable par les règles des plateformes. Et Musk, qui se présente comme un champion de la liberté d’expression, se retrouve à défendre une suspension… de sa propre création. Une illustration parfaite du conflit permanent entre algorithmes, politique et contrôle de l’information.

Djamal Guettala

Dans la même catégorie

Dernières actualités

spot_img

LAISSEZ UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici