IA bashing : la défiance injustifiée face à l’outil créatif le plus puissant de notre époque

Par Guy de Lussigny

Alors que l’intelligence artificielle s’impose dans tous les pans de l’économie, de la création artistique à la stratégie d’entreprise, une vague de rejet traverse l’opinion. Débat légitime pour certains, résistance idéologique pour d’autres, le “IA bashing” désigne cette défiance croissante envers un outil pourtant inégalé en termes de productivité, d’aide à la décision et de potentiel créatif. Une réaction souvent mal informée, parfois sincère, mais toujours révélatrice de notre difficulté collective à faire face à une rupture technologique majeure.

De l’admiration à la suspicion

L’histoire est connue : en quelques mois, l’IA générative est passée de curiosité geek à assistant quotidien. Avec l’émergence de modèles comme GPT-4, Claude, Gemini ou Mistral, de plateformes de création musicale comme Suno ou Udio, et d’outils visuels comme Midjourney ou Runway, les capacités de l’intelligence artificielle se sont démocratisées à un rythme sans précédent. Rédiger un pitch, résumer un rapport, proposer une maquette, composer une ambiance sonore : tout devient possible, à la portée d’un non-spécialiste.

Mais à mesure que les usages s’installent, la défiance s’organise. Dans les cercles artistiques, certains dénoncent une trahison de l’authenticité. Dans les milieux académiques, des politiques de surveillance voire d’interdiction sont mises en place. Dans les entreprises, on observe une prudence excessive, entre crainte du plagiat, de la perte de contrôle ou d’un affaiblissement de la créativité humaine.

C’est ce phénomène qu’on appelle désormais le IA bashing : une tendance à dénigrer, minimiser ou diaboliser par principe toute création ou production assistée par intelligence artificielle.

Une erreur de diagnostic sur la nature de l’outil

Ce rejet repose souvent sur une méconnaissance fondamentale : l’IA n’est pas une entité autonome, mais un outil. Un outil statistique, prédictif, linguistique, créatif parfois, mais profondément dépendant de l’intention et de la qualité de son utilisateur. Elle ne “remplace” pas la pensée humaine : elle la prolonge, l’accélère, la démultiplie.

Dire qu’un texte, un visuel ou une mélodie créée avec assistance IA n’est “pas authentique”, c’est comme dire qu’un film monté sur Adobe Premiere ou un roman écrit sur Word ne sont pas des œuvres légitimes. On ne juge pas un résultat à l’outil utilisé, mais à la valeur qu’il exprime.

Le problème ne vient pas de l’intelligence artificielle. Il vient du regard biaisé que nous portons sur la notion même de création assistée.

Un cas révélateur : le “label IA” dans la musique

La décision prise par Deezer fin 2024 illustre parfaitement cette dérive. La plateforme a annoncé vouloir détecter et étiqueter les titres musicaux “générés ou co-générés par IA”. Présentée comme une mesure de transparence, cette initiative a été largement critiquée comme un acte de stigmatisation. Pourquoi signaler spécifiquement l’usage d’un outil, quand ce même outil est utilisé par tous – producteurs, ingénieurs son, distributeurs – dans la chaîne de production musicale contemporaine ?

Le fond du problème est ailleurs : dans l’idée implicite qu’un morceau composé à l’aide de Suno ou Udio serait moins “authentique” qu’un morceau joué sur un synthétiseur. Comme si l’histoire de la musique n’était pas elle-même un enchaînement d’innovations techniques, chacune ayant été un jour rejetée avant d’être adoptée : guitare électrique, boîtes à rythme, autotune, sampleurs, logiciels DAW…

Ce que révèle ce label, ce n’est pas une volonté d’informer. C’est une volonté de tracer une ligne entre ce qui serait considéré comme “vrai” art, et ce qui ne le serait plus.

La peur derrière le rejet : perte de contrôle, déclassement, verticalité menacée

La montée du IA bashing ne relève pas uniquement d’un débat esthétique ou technique. Elle traduit une peur profonde : celle d’un déplacement du pouvoir. L’IA remet en cause la verticalité classique de la création, où seuls les experts, les diplômés ou les “élus” pouvaient produire à grande échelle.

Désormais, un entrepreneur peut générer une charte graphique, un marketeur produire 20 versions d’un slogan, un auteur tester plusieurs styles narratifs, un formateur créer une séquence complète de cours – sans avoir besoin d’une armée d’agences ou de prestataires.

Ce n’est pas une menace pour la création. C’est une menace pour les intermédiaires.

Et dans beaucoup de cas, c’est cette perte de centralité – économique, symbolique, professionnelle – qui alimente la défiance.

En entreprise : entre enthousiasme pragmatique et conservatisme culturel

Dans les organisations, la situation est ambivalente. D’un côté, les cas d’usage de l’IA générative se multiplient : rédaction de comptes rendus, automatisation de synthèses, création de contenus internes, génération de maquettes, scénarisation de formations. De l’autre, de nombreux cadres intermédiaires ou comités internes freinent son adoption, par souci de conformité, de sécurité ou… de contrôle narratif.

Les directions juridiques redoutent le flou réglementaire. Les responsables communication craignent des erreurs de message. Les équipes métiers s’inquiètent d’une dilution de l’expertise.

Résultat : on expérimente en catimini, sans politique claire, sans droit à l’erreur, sans vision intégrée.

Mais le vrai danger pour les entreprises n’est pas l’IA. C’est de passer à côté de son potentiel faute de culture, de formation et de cadre d’usage.

Ce que l’IA permet réellement

  • Gagner du temps sur les tâches répétitives, non stratégiques, ou à faible valeur cognitive.
  • Explorer plus d’options créatives, formelles ou narratives, en un minimum de temps.
  • Industrialiser l’expérimentation (idées, tests, structures, formats).
  • Renforcer la cohérence des supports internes ou externes, grâce aux assistants stylistiques ou de ton.
  • Désacraliser l’innovation en la rendant accessible à des profils non techniques.

L’IA ne produit pas nécessairement mieux. Mais elle produit plus vite, plus large, plus ouvert. Et c’est à l’humain de trier, d’arbitrer, de choisir. Le talent reste au centre – mais le terrain de jeu a changé.

Pour une culture numérique adulte

La vraie question aujourd’hui n’est pas de savoir s’il faut utiliser l’IA. Elle est déjà partout, des suggestions Gmail aux moteurs de recherche, des CRM aux outils de veille, des dashboards aux plateformes d’édition.

La vraie question est : comment former les professionnels à s’en servir de manière éthique, lucide, responsable ?

Cela suppose :

  • De reconnaître la valeur de l’humain augmenté, et non diminué.
  • De clarifier les usages acceptés, attendus, réglementés.
  • D’intégrer l’IA dans les processus métiers, comme un levier d’exigence, pas de facilité.
  • D’arrêter d’opposer l’authenticité à l’automatisation. Ce sont deux choses différentes.

Conclusion : ce ne sont pas les machines qui nous feront perdre notre humanité, mais la peur d’évoluer

Le “IA bashing” n’est pas une position d’avant-garde. C’est un réflexe de protection d’un monde qui change trop vite.

Mais l’histoire est toujours la même : ceux qui rejettent les outils finissent dépassés. Ceux qui les adoptent avec discernement créent les standards de demain.

Ne laissons pas la peur, l’ignorance ou les postures symboliques freiner une révolution positive. L’IA n’est pas une menace. C’est un révélateur. Et ceux qui sauront s’en servir, sans naïveté mais sans tabou, seront les nouveaux bâtisseurs de valeur.


En savoir plus sur GDL T&C

Subscribe to get the latest posts sent to your email.

Comments are closed.

En savoir plus sur GDL T&C

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture