Retrouvez ici des sujets d'actu problématisés, une réflexion et un état de l'art des connaissances, des questionnements et des pistes d'action pour ouvrir le débat. La mission d'observation du pôle sert à prendre de la hauteur sur des sujets du moment ou qu'on estime importants pour les musiques actuelles. Ce pas de côté prospectif permet aussi d’avoir une publication régulière en complément des études menées au long cours.

 
 
  
 

Publié sur un rythme trimestriel, chacun des textes est soumis à un comité de lecture spécifique en fonction des sujets évoqués.

 
Ce texte s'est nourri d'échanges avec :
  
Louise BLAS, responsable veille et prospective filière à EuraCreative
 
Romain BOONEN, formateur et consultant IA, fondateur de Empowork Culture
 
Elisabeth GRAVIL, consultante en ingénierie culturelle et formatrice IA, directrice de Museovation
 
 
 
Vous et 9 personnes trouvent
ce sujet important

L’IA générative, des craintes artificielles pour la musique ?


ébauché en septembre 2025 / publié en février 2026
 

The Velvet Sundown. Ce « groupe fantôme », dont l’identité musicale et visuelle ainsi que le storytelling ont été entièrement générés par IA, a cumulé des millions d’écoutes et intégré les top playlists sur Spotify à l’été 2025, la supercherie dupant autant les auditeurs et auditrices que les professionnel·les de l’industrie. L’anecdote montre que le monde professionnel de la musique est bousculé par la démocratisation de l’IA générative (IAg) et les usages, souvent incontrôlés, de cette nouvelle technologie qui charrie son lot de fantasmes et de craintes. Tour d’horizon de quelques controverses et points d’attention à avoir, en vue de réinvestir l’IA comme une question politique et un objet de débat public.
 
 
En finir avec le mythe persistant de la neutralité technologique

En lisant une publication sur l’IAg 1, vous trouverez souvent ce lieu commun dans les commentaires : « la technologie est neutre, son impact ne dépend que du bon ou mauvais usage qui en est fait ». Ce mythe de la neutralité technologique, déconstruit il y a bien longtemps 2 mais entretenu à dessein par les Big Tech, montre que l’IAg est un terrain fertile pour le « prêt-à-penser » et les opinions polarisées (voir l’encadré en bas de page). Dire que l’IAg est neutre a pour effet d’éluder tout ce qui rend cette technologie possible sous sa forme dominante actuelle. Elle est le fruit d’intentions et de visions du monde, d’intérêts politiques et financiers d’une minorité tirant parti du capitalisme numérique qui structure nos sociétés. Elle procède d’un « déjà-là » technologique ainsi que de capacités de financement, de décisions et compromis actés dans sa fabrication : la composition des équipes, le choix des données, les modes de contrôle, la nature des matériaux, le coût utilisateur… Mais aussi d’un ensemble d’infrastructures, de travail précaire délocalisé, de l’exploitation de ressources naturelles, comme nous le verrons plus loin.

Dire que l’IAg est neutre, c’est aussi faire fi de la transformation même de nos sociétés, à cause de ses usages qui font évoluer le travail, le rapport à autrui, les manières de s’informer, de créer, etc. L’IAg accélère certaines transformations préexistantes et verrouille nos possibilités de retour en arrière 3, ce qu’illustre notamment le fait de présenter cette technologie comme symbole du progrès naturel et irrémédiable (« il faut faire avec, vous préférez retourner vivre dans une grotte ? »). Enfin, postuler sa neutralité au motif que chacun·e en fait ce qu’iel veut, c’est ignorer que nous ne sommes pas égaux en ressources pour utiliser une technologie émergente. Les entreprises qui développent les LLM, ou encore les personnes dotées d’un bagage et de moyens techniques et financiers, sont considérablement avantagées dans l’appropriation de cette technologie et des profits qui en découlent. Les révolutions technologiques se sont d’ailleurs souvent soldées par une dégradation des conditions de travail et une distribution inégale des richesses, à rebours des promesses de prospérité universelle qui les accompagnaient 4.

Des questions légitimes pour le devenir des professionnel·les de la musique

Le principal motif de controverse qui agite le monde professionnel de la musique tient précisément à cette question du partage de la valeur, mis à mal par l’irruption de l’IAg sur le marché. En amont, le moissonnage illégal de contenus (morceaux, visuels, paroles) pour entraîner les LLM, sans rémunération pour leurs ayants droit en contrepartie, serait si massif que la Confédération internationale des éditeurs de musique (ICMP) dénonce à la suite d’une longue enquête « le plus grand vol de propriété intellectuelle de l’histoire » 5. Profitant du flou juridique et d’une régulation embryonnaire autour de l’IA, les géants du numérique (Google, Microsoft, Meta, X, etc.), et les start-up spécialisées dans l’IAg (Open AI, Suno et consorts) essaient de se soustraire au respect des droits de propriété intellectuelle. Faisant pression sur les gouvernements pour avoir des exemptions en la matière 6, elles nient par ailleurs les préjudices commis au nom d’exceptions prévues par la loi : le "fair use" aux Etats-Unis, l’exception de fouille de texte et de données au sein de l’Union européenne (UE). En aval, cela pose un autre problème de taille : les dizaines de milliers de titres générés via l’IA qui inondent les plateformes d’écoute en ligne et concurrencent les artistes, dans un marché musical déjà saturé de propositions. On devrait pouvoir établir la traçabilité de l’intervention de l’IAg sur les contenus créatifs et voir à partir de quelles œuvres les modèles ont été entraînés Deezer, qui a créé un outil de détection dédié, affirme en novembre 2025 recevoir chaque jour près de 40 000 pistes entièrement générées par l’IA, soit 34 % de l’ensemble des contenus mis en ligne sur la plateforme (un quadruplement en dix mois) 7. Ces deux dynamiques concourent au déséquilibre économique de l’écosystème, et en particulier à la précarisation de celles et ceux qui sont déjà les plus précaires et assument la part essentielle du risque artistique : les acteur·rices indépendant·es. La première étude mondiale sur l’impact de l’IAg dans la musique estime que les créateur·rices pourraient voir leurs revenus diminuer de 27 % sur 2023-2028, représentant une perte totale cumulée de 2,7 milliards d'euros (Md€) 8.

Cette problématique de la juste rémunération des créateur·rices est liée à un enjeu de transparence. A l’heure où il devient très compliqué de distinguer à l’oreille une création humaine d’une autre générée par IA 9, on devrait pouvoir établir la traçabilité de l’intervention de l’IAg sur les contenus créatifs et voir à partir de quelles œuvres les modèles ont été entraînés. Ce qui n’est pas le cas aujourd’hui, malgré l’obligation posée en ce sens par le Règlement européen sur l’IA (RIA) 10. Les entreprises refusent de communiquer ouvertement sur leurs données d’entraînement (même celles qui se réclament d’une IA éthique comme Mistral AI), au prétexte que cela nuirait à leur avantage concurrentiel. Et, à l’exception de Deezer, les plateformes de streaming ne jouent pas non plus le jeu de la transparence. Emblématique de l’opacité et de la tromperie érigées en politique d’entreprise 11, Spotify affirme plus récemment renforcer ses contrôles internes pour limiter les usages frauduleux ou abusifs de l’IA 12.

Aussi les régulations existantes restent aisément contournables et loin de lever l’insécurité juridique et financière des ayant droits. L’opt-out (un ayant droit doit s’opposer explicitement à l’utilisation de ses œuvres pour entraîner les LLM) comporte de sérieuses limites : savoir où et comment agir pour exercer ce droit, pouvoir prouver qu’il y a eu usage frauduleux de ses droits d’auteur en cas de contentieux, avoir les ressources pour mener un long et coûteux procès. Les obligations du RIA, finalement très édulcorées, La course à l’IA appelle à mettre des garde-fous supplémentaires qui, de toute façon, ne viendront pas des acteur·rices de la tech sont des semblants de réponse a posteriori dont les grands groupes s’accommodent bien. Ils n’hésitent d’ailleurs pas à négocier des accords pour indemniser les sociétés d’auteur·rices et d’éditeur·rices, à l’image d’Anthropic qui va verser la somme minimale d’1,5 milliard de dollars (Md$) à un fonds d’indemnisation dans le domaine du livre 13. La course à l’IA appelle à mettre des garde-fous supplémentaires qui, de toute façon, ne viendront pas des acteur·rices de la tech.

La Sacem propose notamment deux leviers : des licences ou des droits de reproduction sur les données utilisées pour entraîner les IAg, un droit à la rémunération équitable sur les contenus générés par IA 14. C’est une piste testée en Suède, à la suite d’un accord de licence conclu début septembre entre la Swedish Performing Rights Society (STIM) et la start-up Songfox 15. En l’absence de résultats tangibles des concertations entre fournisseurs d’IA et ayants droit, lancé en juin dernier par le gouvernement Bayrou, différentes pistes sont à l’étude, notamment sur le plan législatif. Le ministère de la Culture se déclare favorable à la présomption d’utilisation des contenus culturels par les fournisseurs d’IA 16, pour leur faire porter la charge de la preuve en cas de contentieux et ainsi rééquilibrer le rapport de force avec les ayants droit. Une proposition de loi en ce sens a été déposée mi-décembre par différent·es sénateur·rices, et devrait être discutée prochainement lors d’une niche parlementaire. Les député·es européen·nes appellent – enfin – la Commission et les Etats membres à mieux appliquer le cadre existant et à de nouvelles mesures pour garantir une transparence totale, une sécurité juridique effective et une rémunération équitable de la presse et de la création 17. Concomitamment, il faut inciter aux « bonnes pratiques » professionnelles dans l’écosystème musical, en instaurant des rapports de force et en mettant la pression publique sur les acteur·rices qui enfreignent les droits d’auteur pour leurs profits. Comme le fait par exemple Bandcamp, en évinçant les contenus majoritairement générés par IA de sa plateforme et la contrefaçon de voix ou de styles existants 18.

Une inflexion dans les stratégies et le rapport de forces est à l’œuvre ces derniers mois. Prise de court, l’industrie musicale essaie de réinscrire l’IAg dans un cadre légal et rémunérateur. Côté contentieux, Open AI a été condamnée en Allemagne pour atteinte aux droits d’exploitation de neuf chansons populaires, une décision très attendue que les acteur·rices de la musique comptent bien exploiter afin qu’elle serve d’inspiration aux autres juridictions de l’UE. Cela explique que la Sacem, leader mondial de la gestion collective des droits d’auteur, muscle son discours : sa directrice générale Cécile Rap-Veber affirmait en novembre 2024 ne pas vouloir ralentir l’activité de l’IA mais la rendre vertueuse, un an plus tard elle dénonce comme « totalement injuste que les IA aient pillé toute la culture » sans rétribution 19. En parallèle, on voit se multiplier les accords de licence entre les majors de l’industrie, les start-up de l’IA et, plus rarement, les plateformes de streaming : Udio avec Universal puis avec Warner quelques jours après, Universal, Sony et Warner avec Klay Vision Inc., Spotify avec les trois majors et avec Believe et Merlin pour « développer des produits IA responsables » 20, Suno et Warner, Universal et le géant des puces de calcul Nvidia, etc. Avec un marché de l’IA en matière de musique évalué entre 3,1 et 18,8 Md$ en 2028 selon les premières projections 21, les actionnaires et dirigeants ont senti le vent tourner et essaient de capter une part de la manne. Le risque est grand de voir l’IAg renforcer le pouvoir économique et prescripteur des acteur·rices dominant·es du numérique et de la musique

Mais derrière les discours de façade, en quoi ces accords de gré à gré vont répondre aux préoccupations et aux intérêts des créateur·rices, de la diversité des acteur·rices indépendant·es ? Contrairement au récit naïf postulant une IA démocratisée qui renverserait la table de l’industrie musicale, le risque est grand de voir l’IAg renforcer le pouvoir économique et prescripteur des acteur·rices dominant·es du numérique et de la musique 22. Le fait que l’industrie musicale cherche moins à contenir l’invasion de l’IAg qu’à en capter une part des profits explique en partie les approches fragmentées et l’absence de voix unie imposant un rapport de force à son avantage. Qui plus est, le prisme très réducteur de la compensation financière ne règlera ni le problème du contrôle de cette technologie, ni celui de ces multiples impacts socio-environnementaux.

L’arbre qui cache la forêt : des controverses qui détournent le regard d’enjeux profonds

Suivant un schéma bien connu, les débats autour de l’IA alternent entre promesses faramineuses 23 et peurs plus ou moins fantasmagoriques – le fameux « remplacement de l’homme par la machine », voire l’extinction de l’humanité dans sa version alarmiste. Chemin faisant, ce narratif consacre cette technologie « révolutionnaire » et son essor comme allant de soi, au bénéfice de ses promoteur·rices et en gommant leurs intérêts particuliers. Ce reflux de l’esprit critique fait qu’on oublie d’interroger le bien-fondé même de la démocratisation de l’IA et d’aborder certains enjeux de fond liés à son développement actuel.

L’IA condense aujourd’hui beaucoup de craintes quant à son potentiel transformateur, dont la question du remplacement massif d’emplois est un symptôme souvent invoqué. S’il est toujours délicat d’établir des prédictions, les travaux les plus récents suggèrent que l’enjeu se jouerait plus dans la détérioration même du travail et de sa rémunération. Voyant dans l’IA l’instrument d’un « taylorisme augmenté », le sociologue Juan Sebastián Carbonell explique à partir des cas du journalisme et de la traduction que l’automatisation des tâches fait perdre de l’autonomie et de la créativité aux travailleur·euses, soumis·es aux rythmes et aux exigences de l’IA 24. Il s’agit aussi d’un puissant levier qui accroît l’asymétrie hiérarchique tout en déresponsabilisant le donneur d’ordres (puisque cela est fait au nom de la soi-disant objectivité de l’IA) : pour négocier à moindre coût un salaire ou une prestation de service, entretenir la concurrence entre salarié·es et récompenser en fonction de « critères de performance »... Mais elle offre de surcroît un prétexte commode aux entreprises pour licencier ou brandir la menace de licenciements au nom d’une meilleure productivité, en limitant la perte de confiance des actionnaires et du grand public 25. En d’autres termes, l’IA s’ajouterait à la panoplie des instruments managériaux de contrôle du travail et des travailleur·euses. Les chercheuses américaines Emily Bender et Alex Hanna confirment dans un récent essai que l’IA est surtout un moyen de renforcer les contraintes, de dégrader les conditions de travail et la rémunération des individus 26 : L’IA est surtout un moyen de renforcer les contraintes, de dégrader les conditions de travail et la rémunération des individus un ingénieur son payé moins cher pour reprendre un mix prémâché, des traducteur·rices à moindres frais pour faire de la post-édition, etc. Tout cela est par ailleurs rendu possible par un travail caché et délocalisé, puisque les outils d’IA sont développés et entraînés grâce à l’exploitation de millions de travailleur·euses précaires non organisé·es ou protégé·es dans différents pays du Sud (Philippines, Madagascar, Kenya, etc.)

Avec une tonalité bien moins critique, une récente étude du Centre national de la musique (CNM) traitant des impacts pressentis de l’IA sur la filière musicale évoque là aussi une redéfinition graduelle et différenciée des métiers plutôt qu’une brutale disparition d’emplois 27. L’automatisation de tout ou partie du contenu des tâches serait variable selon la nature du métier (métiers avec tâches plus standardisées et techniques > métiers à composante artistique forte), la spécialisation, l’esthétique et la destination des œuvres (musique à l’image > musique live), ou encore l’expertise et la réputation des individus et des entreprises (les grosses signatures en majors devraient être moins inquiétées que d’autres). Ainsi les créateur·rices de musique dites « de librairie », à faible valeur ajoutée artistique, sont déjà enclin·es à être concurrencé·es par l’usage de l’IAg 28. D’autres analyses portant sur des métiers créatifs a priori fortement exposés – storyboarder, comédien de doublage – tempèrent les réactions catastrophistes et appellent à un regard fin sur les répercussions 29. Ces travaux ont le mérite de pointer un autre angle mort des discours se focalisant sur la perte d’emplois à grande échelle : la nécessité d’un accompagnement renforcé de l’ensemble des professionnel·les pour sécuriser leurs trajectoires, adapter au mieux leurs compétences, garantir les moyens d’accéder à une offre de formation initiale et continue riche et ajustée aux besoins. L’injonction généralisée à utiliser l’IA n’a donné lieu à aucun débat démocratique réel mettant en balance ses coûts socio-environnementaux et son utilité socialeBeaucoup peuvent en effet se sentir démuni·es face aux dilemmes que pose l’usage de l’IAg : entre souhait de rester « à jour » par crainte d’être exclu·e du marché du travail et volonté de ne pas l’utiliser par conviction, entre résolution de ne pas servir les intérêts des Big Tech et besoin de trouver la solution la plus opérationnelle et efficace pour son équipe…

Un autre cadrage autour de l'IA qui fait oublier l'essentiel consiste à mettre en avant la démultiplication des possibles que cette technologie autoriserait. Ce faisant, on néglige de se demander pour quoi faire (aller plus vite, produire plus, s’enrichir davantage ?), et à quel prix (utiliser toujours plus de ressources naturelles, précariser encore davantage les travailleur·euses et délocaliser des activités, creuser les inégalités ?). L’injonction généralisée à utiliser l’IA, par l’action conjuguée des entreprises et de la puissance publique, n’a donné lieu à aucun débat démocratique réel mettant en balance ses coûts socio-environnementaux et son utilité sociale. Le récit enchanté de progrès continu qui accompagne l’essor du numérique depuis des décennies atteint son acmé. En nous y conformant sans distance, nous acceptons d’être privé·es de tout discernement sur ce que l’usage de cette technologie implique réellement et de toute voix au chapitre.

En matière d’impact environnemental de l’IA par exemple, deux réalités émergent : il est gigantesque, et probablement sous-évalué car on ne sait pas encore le mesurer pleinement. L’IA grand public a un impact considérable tout au long du cycle de vie des LLM, en termes de consommation de ressources (eau, électricité, minerais), d’émissions carbone et de répercussions locales des data centers sur l’approvisionnement en eau et en électricité, ou encore sur la pollution (atmosphérique, déchets électroniques, polluants éternels, etc.) 30. Les fournisseurs d’IA entretiennent l’opacité sur la consommation énergétique de leur modèle, et invoquent des solutions techniques censées réduire drastiquement ces impacts. Mais ces coûts environnementaux explosent au contraire, en raison de trois facteurs principaux : des infrastructures matérielles toujours plus nombreuses et gigantesques, des LLM plus complexes et gourmands, une croissance exponentielle des usages 31. Les cinq entreprises contrôlant toute la chaîne de valeur (Nvidia, Microsoft, Oracle, OpenAI, AMD) encouragent activement ce développement incontrôlé dans la mesure où l’IA demeure aujourd’hui « un gouffre financier en quête de rentabilité » 32, assis sur une bulle spéculative. Cette expansion à marche forcée compromet durablement le respect des objectifs climatiques fixés par les accords internationaux 33. A rebours de la pensée magique des apôtres de l’IA, son impact sur la croissance ou la productivité demeure incertainEt elle coûte déjà de l’argent aux contribuables : pour ne prendre que deux exemples (au-delà de l’argent public massivement investi), les tarifs de l’électricité ont explosé aux Etats-Unis ces dernières années, et le prix des équipements numériques connaît des hausses notables dans le monde 34.

La pilule est d’autant plus difficile à avaler que, à rebours de la pensée magique des apôtres de l’IA, son impact sur la croissance ou la productivité demeure incertain tant les estimations des études prospectives divergent 35. Cette technologie balbutiante est encore peu intégrée aux organisations du travail 36 ou déployée selon leurs spécificités. L’instauration verticale de l’IA ne s’accompagne que très rarement d’une politique RH adéquate et de dialogue social au sein des organisations, si bien que ce sont les usages individuels non approuvés par les directions informatiques qui prévalent souvent (le "shadow AI"). Autrement dit, l’IA est pour l’instant plus un facteur de déstabilisation que d’efficience des collectifs de travail. Censée faire gagner du temps, libérer les salarié·es des tâches rébarbatives et leur permettre de « remettre de l’humain » dans leur activité, elle se traduit au contraire beaucoup par l’épuisement, l’isolement voire la détérioration des relations avec les collègues et l’essor du « travail bâclé » 37. Dès lors, sa plus-value économique pour les entreprises semble dérisoire, comme le pointent les premières enquêtes ayant un peu de recul 38. D’autant que l’argument de la hausse de la productivité a un biais fondamental : à supposer qu’elle se concrétise à grande échelle, l’histoire nous enseigne qu’elle mènera probablement moins à la prospérité partagée qu’à la perpétuation de la domination et au creusement des inégalités sociales, en l’absence de contre-pouvoirs forts 39.

L’avenir de l’IA dépend de nos choix actuels

Plusieurs centaines de millions de personnes utilisent ainsi une technologie au quotidien, dont les externalités négatives sont déjà considérables et dont les bénéfices pour l’humanité restent peu lisibles – si ce n’est des avancées scientifiques et médicales prometteuses. Intégrée dans tous les interstices de nos vies numériques, par des moyens plus ou moins déguisés qui confinent parfois à l’utilisation forcée 40, elle est accessible et séduisante. L’inconvénient c’est qu’au nom de prétextes spécieux (gagner du temps, être plus efficace, se « challenger », etc.), mais surtout par commodité, on en vient à une délégation cognitive qui gagne de plus en plus de tâches courantes 41. Il y a déjà de sérieux risques d’amoindrir le goût de l’effort intellectuel et la pensée critique, comme l’estime de soi 42. Mais surtout, par ces usages irréfléchis on consent sciemment à la triple exploitation sur laquelle l’IAg prospère (ressources naturelles, données et force de travail humaine), au profit d’entreprises et de gouvernements sous leur influence 43. Par ces usages irréfléchis, on consent sciemment à la triple exploitation sur laquelle l’IAg prospère (ressources naturelles, données et force de travail humaine)On entend de plus en plus une petite musique monter, sur les « bons » et les « mauvais » usages de l’IAg ou sur ses biais et « hallucinations », mais c’est passer à côté du fond du problème. En la réduisant à des considérations techniques, ou plus prosaïquement à un outil qui fait gagner du temps, on souscrit implicitement à l’idéologie de prédation qu’il y a derrière et aux rapports de pouvoir que cela sert à asseoir 44.

L’automatisation effrénée et l’hyperconcentration des richesses n’ont rien d’inéluctable. Le danger principal réside aujourd’hui dans l’apathie et l’absence de recul critique généralisées, qui conduisent à laisser cette technologie proliférer sans régulation sérieuse et sans débat de société. Un nombre croissant d’universitaires, de journalistes spécialisé·es, d’ingénieur·es et autres observateur·rices appellent à démystifier et à repolitiser l’IA, autour de questions fondamentales qui concernent plus largement notre rapport au numérique et au gouvernement par les algorithmes : est-il souhaitable pour le bien commun de déléguer à ce point les choix faits à un oligopole technologique, alors même qu’ils nous impactent tous·tes au premier chef dès à présent ? Les LLM mis en place profitent-ils surtout à l’intérêt général, ou à des intérêts particuliers ? Contribuent-ils à approfondir ou à résorber les inégalités ? A-t-on véritablement besoin d’IAg, de quel type, pour quoi faire ? Y a-t-il des espaces, des domaines où l’IAg ne devrait pas être utilisée, au motif qu’elle menacerait la justice sociale ?

Le premier levier d’action consiste à profondément remettre en question, individuellement et à l’échelle des collectifs de travail, nos usages de l’IAg, au regard de sa plus-value effective et des impacts engendrés. S’il n’y a pas de besoin vital à utiliser cette technologie dans les organisations, et que son utilité sociale est moindre par rapport à ses coûts, nous devons faire des choix forts et être prêt·es à certains renoncements. Il y a là un impensé sur lequel il va falloir délibérer, en interne aux organisations et à une échelle citoyenne plus large. Sur la base d’un dévoilement des mirages de l’IAg, adossé à une connaissance pratique fine de cette technologie. Mais parier uniquement sur le développement d’usages responsables serait risqué (l’humain renonce difficilement à son confort) et insuffisant (cela ne compensera jamais les milliards de requêtes faites chaque jour par d’autres).

Un second levier tient à la mobilisation citoyenne et la pression sociale à exercer sur les entreprises et les gouvernements. Il faut monter en généralité dans les revendications, pour sortir de logiques corporatistes et relier les luttes entre elles. Spoliation de droits d’auteur ou extraction de ressources naturelles, l’enjeu démocratique est le même pour un citoyen·ne ou une filière professionnelle : l’appropriation de biens protégés (publics ou privés), la concentration des richesses et du pouvoir, la dégradation (des conditions de travail, de l’environnement, de la création…) et la reproduction voire l’aggravation des inégalités qui en résultent. Aussi les organisations professionnelles des industries culturelles et créatives ont tout intérêt à se mobiliser de front en posant un principe d’équivalence dans les défis qu’elles rencontrent, Un nombre croissant d’observateur·rices appellent à démystifier et à repolitiser l’IA, autour de questions qui concernent notre rapport au numérique et au gouvernement par les algorithmespour peser plus dans le rapport de force face aux mastodontes de l’IA. Les observatoires spécialisés comme l’AI Now Institute plaident pour une « confiance zéro » à leur égard, en délimitant les usages inacceptables de l’IA (police prédictive, scoring social, fixation des prix et des salaires, etc.) et en exigeant des entreprises qu’elles prouvent, pour chaque phase du cycle de vie de l’IA, que leurs produits sont sans danger 45.

Le troisième levier réside dans la consolidation des contre-pouvoirs. Les chercheur·euses portant un regard technocritique plaident pour une montée en expertise des syndicats et organisations professionnelles sur le changement technologique, qu’ils puissent opposer des alternatives et défendre les travailleur·euses (négociations sectorielles, campagnes massives de sensibilisation et plaidoyer politique, syndicats de gestion collective des données personnelles, etc.). La mainmise croissante de grands groupes sur les médias pose aussi sérieusement question quant à la possibilité pour les journalistes d’exercer leur fonction critique à cet endroit. Le cadrage médiatique dominant entretient la hype autour de l’IA, louant son caractère « disruptif » et surestimant ses implications positives tout en minimisant ses controverses 46.

Le quatrième levier tient à l’amélioration de la régulation par la puissance publique, qui peut se traduire de bien des manières : le renforcement de la protection de la vie privée, l’encadrement de la publicité ciblée, les lois antitrust pour limiter la concentration, la proportionnalité du recours aux systèmes algorithmiques à des besoins sectoriels répondant à une forte valeur ajoutée sociétale… L’idée étant de ne pas se focaliser sur le seul terrain de la propriété intellectuelle, de la concurrence et du droit des données, mais de le réencastrer dans ses multiples dimensions sociales, culturelles et environnementales.

Ces leviers doivent permettre de faire advenir des alternatives à l’IAg telle qu’elle nous est imposée actuellement. Exigence d’un moratoire national sur la construction de nouveaux data centers aux Etats-Unis par 230 ONG, appel à l’objection de conscience contre l’usage de l’IAg dans les universités françaises 47, propositions pour une « désescalade numérique » à l’attention des listes candidates aux prochaines municipales 48, les initiatives se multiplient ici et là. Des artistes font aussi ce « pas de côté », en lien avec des acteur·rices de la recherche et du numérique pour pallier les limites techniques et financières. Créations sur des « tiny models » permettant le contrôle de la consommation énergétique et des données, conception de modèles en circuits fermés dédiés à un apprentissage limité et alimentés par l’énergie solaire, œuvres générées collectivement par l’IAg... 49 L’enjeu est le même en fin de compte : co-construire une IA véritablement publique, pas juste accessible ou utilisée massivementLe travail sur des modèles plus soutenables permet d’interroger les modalités de création et de proposer une vraie réflexion sur nos rapports aux technologies. Mais tout ne peut pas reposer sur l’initiative privée. Les pouvoirs publics doivent être force de proposition et incitatifs, pour penser et construire collectivement ces alternatives.

Et des exemples inspirants existent déjà, à l’étranger et dans nos régions. Plusieurs pays d’Amérique latine ont par exemple développé ensemble Latam-GPT, un modèle d’IAg reflétant mieux leurs particularités culturelles et sociales que les modèles commerciaux existants. La Suisse a récemment lancé Apertus, modèle open source, libre d’accès et multilingue entraîné exclusivement à partir de corpus publics expurgés de données sensibles et sous licence. Un débat existe quant au fait de considérer les IAg « éthiques », « frugales » ou « souveraines » comme partie de la solution ou du problème 50. Les spécialistes s’accordent en revanche sur le fait que ces choix ne peuvent être abandonnés à une poignée de gouvernements et d’entreprises, qui propagent à dessein l’idée que cette technologie est incontrôlable si ce n’est entre leurs mains 51.

En France, le Conseil économique, social et environnemental (CESE) a fait en janvier 2025 de sérieuses propositions « pour une intelligence artificielle au service de l’intérêt général » 52. En deux mots, qui réintègre les citoyen·nes et la société civile dans la réflexion et le déploiement de l’IA sur une trajectoire responsable, éthique et durable. Le dernier rapport annuel de l’AI Now Institute plaide dans le même sens, pour substituer à la dynamique actuelle le développement d’une IA centrée sur les besoins des publics, guidée par des impératifs non marchands et des enjeux de justice sociale 53. L’échelon local est particulièrement pertinent pour délibérer et expérimenter. Certaines collectivités territoriales, comme Nantes Métropole ou Montpellier Méditerranée Métropole, ont entrepris d’associer les citoyen·nes à l’élaboration d’une doctrine autour de l’IA 54. Les méthodes et le degré d’implication des habitant·es varient, mais l’enjeu est le même en fin de compte : co-construire une IA véritablement publique, pas juste accessible ou utilisée massivement.






Trois exemples de « prêt-à-penser » autour de l’IAg
 
« Vous n’êtes pas spécialiste en IA, vous n’y connaissez rien ! »
L’IAg n’est pas un domaine technique réservé aux spécialistes ou aux « expert·es » (parfois auto-proclamé·es), mais un objet de débat public en tant qu’il véhicule un lot d’implications socio-économiques considérables. Peu importe que l’on ne comprenne pas en détail comment les ingénieur·es entraînent tel modèle, ou que celui-là soit jugé supérieur à un autre. Ce sont les conséquences tangibles qui nous concernent tous·tes et méritent d’être débattues par le plus grand nombre : notre rapport au travail et au collectif de travail, les répercussions environnementales, l’évolution de l’activité créatrice et de sa rémunération, etc. En ce sens, développer un esprit critique en se documentant, tout en restant ouvert·e à la contradiction, est un réflexe que chacun·e devrait adopter pour des raisons évidentes.
 
« L’IAg est une rupture technologique comme une autre, la société s’est toujours adaptée. »
Nos sociétés sont assez malléables pour parvenir à gérer les crises les plus diverses. Cela ne veut pas dire qu’il ne va pas y avoir un lot de bouleversements, et qu’il vaut mieux les anticiper. L’angélisme qui caractérise souvent les apôtres du « Progrès » ne doit pas faire oublier qu’il y a des « perdants » et des « gagnants » derrière l’irruption des nouvelles technologies. La recomposition consécutive des rapports sociaux et les inégalités dans la distribution des richesses sont une constante historique. L'adoption massive et la dynamique de captation des ressources à l’œuvre autour de l’IAg posent question au vu de la faiblesse actuelle des contre-pouvoirs et de l’apathie des citoyen·nes.
 
« L’IAg détruit l’art et les artistes. »
L’IAg offre de nouvelles opportunités de création à tous·tes, et peut être maniée à des degrés divers (création intégrale via un simple prompt, outil de recherche pour expérimenter, instrument de création collective, etc.). Elle est aussi utilisée par certain·es pour servir leurs intérêts, et amplifie des dynamiques préexistantes (concentration économique du secteur musical, prééminence des plateformes d’écoute en ligne, surproduction de contenus et dilution des revenus, etc.), principalement au détriment des acteur·rices indépendant·es et de la diversité artistique. La responsabilité en incombe avant tout aux start-up développant cette technologie, qui favorisent les usages incontrôlés et non éthiques d’individus et d’entreprises (notamment du secteur musical).




 


 
 
 

Participer au débat

Envie de réagir ?!


Ce sujet vous parle, vous questionne, vous concerne ?
 
Mon email pour me tenir informé·e des rencontres, concertations et échanges prévus autour de cette thématique
(ne sera pas publié)
 
Ma réaction, mon point de vue, que je souhaite publier ici afin de rebondir sur le sujet :

 
 
Je trouve ce sujet important : il mériterait d'être discuté/approfondi.
 
 


Notes

 
1  L’IAg désigne un type particulier de système d’IA, destiné à générer du texte, des images, des sons, des vidéos, sur la base de modèles d’apprentissage automatique (LLM pour "Large Language Model") entraînés sur de vastes corpus de données. Elle produit des contenus visant la vraisemblance à partir de modèles probabilistes (d’où la reproduction de biais et d’erreurs issus de données d’entraînement).
 
2  Voir notamment : J. Ellul, Le bluff technologique, Hachette, 2012, 768 p. ; L. Winner, La baleine et le réacteur. A la recherche de limites au temps de la haute technologie, Descartes & Cie, 2002, 271 p.
 
 
4  D. Acemoglu et S. Johnson, Pouvoir et progrès. Technologie et prospérité, notre combat millénaire, Ed. Pearson, 2024, 632 p.
 
 
 
 
8  AI and music: Key facts, Sacem/GEMA, janvier 2024, p. 5. Une autre étude commandée par la Confédération internationale des sociétés d'auteurs et compositeurs (CISAC) évoque une proportion semblable de 24 % de revenus en moins pour les créateur·rices sur la même période, ce qui représenterait une perte cumulée évaluée cette fois à 10 Md€. Voir Étude sur l’impact économique de l’IA générative sur les industries musicale et audiovisuelle. Résumé, CISAC/PMP Strategy, novembre 2024, p. 5.
 
9  Sur 9 000 personnes interrogées dans huit pays dans le cadre d’une enquête menée par Ipsos pour Deezer, 97 % d’entre elles n’ont pas su distinguer une chanson intégralement générée par l’IA d’une création humaine. Cf. « Étude Deezer/Ipsos : 97 % des personnes sont incapables de faire la différence entre une musique entièrement générée par l’IA et une musique créée par des humains », op. cit.
 
10  Progressivement entré en application à partir de février 2025, le RIA pose un cadre juridique et règlementaire commun pour l’IA au sein de l’UE. Le texte instaure certaines conditions minimales à l’autorisation des systèmes d’IA sur le marché européen, en fonction de quatre niveaux de risques d’atteinte aux droits fondamentaux. L’entrée en application du texte a ravivé les controverses autour de son caractère flou et imparfait, rapidement remise en cause par des start-up, des grands groupes industriels et des Etats membres de l’UE au motif que cela briderait l’innovation et l’essor européen dans ce domaine.
 
11  La plateforme avait été épinglée pour avoir présenté des milliers de titres comme le fait d’artistes indépendant·es en les mettant en avant dans un nombre gigantesque de playlists, alors qu’ils étaient créés à moindre coût par des compositeur·rices de l’ombre. Ou, plus tard, pour avoir propulsé des titres générés par IA, dont certains vont jusqu’à usurper l’identité d’artistes décédé·es. Pour des détails : « Spotify et l’arnaque aux artistes fantômes », Les Jours, 4 février 2025 ; « Sur Spotify, l’intelligence artificielle fait chanter les morts », Tsugi, 31 juillet 2025.
 
 
 
 
15  « STIM Launches the World’s First AI License for Music », stim.se, 9 septembre 2025.
 
16  Reprenant l’une des recommandations de la mission confiée au Conseil supérieur de la propriété littéraire et artistique (CSPLA). Cf. « Rapport de mission sur la rémunération des contenus culturels utilisés par les systèmes d’IA – Volet juridique », CSPLA, présenté en réunion plénière le 23 juin 2025, p. 41 sqq.
 
 
18  « Keeping Bandcamp Human », Bandcamp Updates, 13 janvier 2026.
 
19  « L’invité du 13/14 », France Inter, 17 novembre 2025.
 
 
21  L’étude Sacem/GEMA table sur 3,1 Md$ en 2028 (op. cit., p. 4.), à l’inverse de l’étude CISAC/PMP Strategy qui évoque 16 Md€ – soit environ 18,8 Md$ américains (op. cit., p. 5).
 
22  En 2024, 69 % du chiffre d’affaires mondial de la musique est généré par le streaming, et un peu plus de la moitié par le seul streaming sur abonnement, qui concerne plus de 750 millions d’abonné·es. Cf. Global Music Report 2025, IFPI, mars 2025, p. 7. Les playlists des plateformes de streaming sont devenues prééminentes sur le plan économique (même si les plateformes elles-mêmes sont toujours en quête de rentabilité), mais contribuent aussi largement à la transformation des manières de créer, de produire, de commercialiser et d’écouter de la musique. Sur ce sujet, voir notamment la série d’articles « La fête du stream » du média en ligne Les Jours.
 
23  Voici un florilège (non exhaustif) égrainé par Irénée Régnauld, essayiste et doctorant en sociologie qui mène une thèse sur l’appropriation des questions éthiques dans le domaine de l’IA : « Les déclarations grandiloquentes concernant l’IA ne se tarissent pas : pour Sundar Pichai (Alphabet) "l’IA sera le changement le plus profond de notre existence", pour Dario Amodei (Anthropic) elle entraînera "le plus grand bouleversement du marché du travail mondial de toute l’histoire humaine", pour Sam Altman (OpenAI), "D’ici une décennie, peut-être que chaque être humain sur Terre sera capable d’accomplir plus que la personne la plus influente aujourd’hui". Dans un autre registre, Demis Hassabis (DeepMind) avance que l’IA atteindra bientôt la conscience de soi, l’informaticienne Fei-Fei Li annonce que l’IA "a le potentiel d’améliorer la vie de tout le monde dans le monde entier" […] ». Cf. « Huit mythes de l’intelligence artificielle pour déconstruire la "hype" », Mais où va le web ?, 5 mars 2025.
 
24  J. S. Carbonell, Un taylorisme augmenté. Critique de l’intelligence artificielle, Ed. Amsterdam, 2025, 192 p.
 
 
26  E. Bender et A. Hanna, The AI Con. How to Fight Big Tech’s Hype and Create the Future We Want, Harper, 2025, 288 p.
 
27  Etude sur l’IA dans la filière musicale, CNM/BearingPoint, juin 2025, 79 p.
 
 
29  L’Observatoire des métiers de la culture et des médias à l’heure de l’IA, créé au printemps 2025, produit des notes de conjoncture régulières à cet effet. Les deux premières ont été consacrées aux métiers de storyboarder (mai 2025, 11 p.) et de comédien de doublage (octobre 2025, 23 p.).
 
30  A ce sujet, voir « Intelligence artificielle : le vrai coût environnemental de la course à l’IA», Bon Pote, 2 septembre 2025. Lire également : « Comment l’IA dévore la planète», Le Monde, 26 décembre 2025.
 
31  D’après un rapport publié par OpenAI en lien avec les universités d’Harvard et de Duke, ChatGPT serait utilisé par près de 10 % de la population mondiale adulte, passant de 100 millions d’usager·ères hebdomadaires début 2024 à 700 millions en juillet 2025. Le trafic quotidien représenterait 2,6 milliards d’échanges par jour, soit environ un cinquième de celui de Google. Cf. How people use ChatGPT, OpenAI/Duke University/Harvard University, septembre 2025, p. 1-2.
 
 
33  Un rapport du Shift Project prévoit un triplement de la consommation électrique des data centers mondiaux et une hausse annuelle de 9 % des émissions de gaz à effet de serre d’ici à 2030, le think tank appelant à la mise en place d’une « trajectoire plafond » pour infléchir une dynamique « insoutenable » et respecter les engagements de l’Accord de Paris. Pour aller plus loin : Intelligence artificielle, données, calculs : quelles infrastructures dans un monde décarboné ?, The Shift Project, octobre 2025, 99 p.
 
 
35  Lire ChatGPT, et après ? Bilan et perspectives de l’intelligence artificielle, Office parlementaire d’évaluation des choix scientifiques et technologiques, Rapport n° 170 (2024-2025) de P. Chaize et al., déposé le 28 novembre 2024, p. 175-177. Les prévisions les plus optimistes sont le fait de cabinets de conseil, de banques d’investissement ou d’institutions internationales : Goldman Sachs évoque des gains de productivité de 1,5 point de % par an sur dix ans et une hausse du PIB mondial de 7 %, le FMI prévoyant une hausse allant jusqu’à 16 % du PIB. Daron Acemoglu, co-lauréat du Nobel d’économie 2024, est beaucoup plus prudent en évoquant des gains de productivité n’excédant pas 0,7 % en cumulé sur les dix années à venir.
 
36  Selon l’Insee, 10 % des entreprises implantées en France déclaraient utiliser l’IA en 2024 (+ 4 points de % en un an), contre 13 % dans l’ensemble de l’UE. Une proportion qui varie fortement en fonction de la taille (un tiers des entreprises de 250 salarié·es et plus affirment l’utiliser, et seulement 9 % pour celles de 10 à 49 salarié·es), et du secteur d’activité (42 % dans l’information-communication, 3 % dans la construction). Voir C. Lefebvre, « Une entreprise sur dix déclare utiliser l’intelligence artificielle», Insee Première, n° 2061, juillet 2025, p. 1.
 
37  « Quand l’usage intensif de la GenAI épuise les salariés », Le Monde Informatique, 23 septembre 2025. Voir aussi : « "Workslop" : quand l’IA fait perdre du temps et de l’argent aux entreprises », 01net, 23 septembre 2025.
 
38  Sur 300 cas analysés par le Massachusetts Institute of Technology (MIT) dans une récente étude, 95 % des sociétés ne constatent pas de résultats mesurables en termes de chiffre d’affaires ou de croissance à la suite du déploiement de l’IAg. Cf. « IA générative : seules 5 % des entreprises tireraient un profit de cette technologie », France Info, 6 septembre 2025. Un rapport du Boston Consulting Group (BCG) confirme que seules 5 % des 1 250 entreprises mondiales étudiées ont tiré un retour sur investissement significatif de l’IA, quand 60 % n’en ont tiré aucun bénéfice tangible malgré des investissements parfois colossaux. Lire The Widening AI Value Gap, BCG, septembre 2025, p. 3. Enfin, deux tiers des 4 454 PDG interrogé·es dans le monde par le cabinet d’audit et de conseil PwC indiquent que l’IA n’a eu aucun impact sur les revenus de leur entreprise, une proportion qui grimpe à 81 % chez les dirigeant·es français·es. « Les dirigeants français peinent à trouver un ROI à l’IA », Le Monde Informatique, 20 janvier 2026.
 
39  Le tableau historique dépeint dans Pouvoir et progrès (op. cit) montre que les avancées technologiques se traduisent par une concentration du pouvoir aux mains des élites, des conditions de travail moins-disantes pour les travailleur·euses et un accroissement des inégalités. L’orientation des « révolutions technologiques » au service de l’intérêt général est rendue possible par l’organisation du monde ouvrier, l’action syndicale, ou bien par les réformes politiques qui instaurent des mécanismes de redistribution, régulent des secteurs d’activités ou démantèlent des monopoles.
 
40  « Comment les entreprises de la tech nous forcent à utiliser l’IA », Limites numériques, A. Beignon et al., février 2025.
 
41  Près d’une personne interrogée sur deux utilise l’IAg en France, une proportion qui atteint 85 % des 18-24 ans. Un tiers des usager·ères l’utilisent au quotidien, à titre personnel ou professionnel/estudiantin. L’IAg sert avant tout à effectuer des recherches (73 % du panel), aider à la rédaction, la traduction et l’amélioration de texte (58 %), mais aussi à générer des idées (57 %), créer des contenus (42 %), ou encore à interagir (41 %). Cf. Baromètre du numérique, édition 2026, CRÉDOC, février 2026, p. 8-13. Les données publiées par OpenAI en septembre 2025 montrent une évolution frappante : alors que le recours à ChatGPT était équilibré entre travail et loisirs un an auparavant, les trois quarts des usages sont désormais centrés sur la vie personnelle. Les conseils pratiques représentent environ 29 % des usages, suivis par l’écriture (24 %) et la recherche d’informations (idem). Cf. How people use ChatGPT, op. cit., p. 2 et 14.
 
42  « IA générative : le risque de l’atrophie cognitive », Polytechnique insights, 3 juillet 2025.
 
43  Pour visualiser par exemple les implications matérielles et politiques liées à une requête adressée à Echo, l’enceinte connectée d’Amazon, consulter la page restituant l’installation artistique « Anatomy of an AI System » (2018) co-réalisée par Kate Crawford, chercheuse spécialisée qui dirige l’AI Now Institute, et par l’artiste et chercheur Vladan Joler. Voir aussi la cartographie de l’IA générative, réalisée en 2024 par le collectif artistique espagnol Estampa.
 
44  K. Crawford, Contre-atlas de l’intelligence artificielle, Zulma Essais, 2022, 384 p.
 
45  Zero Trust AI Governance, Accountable Tech/AI Now/EPIC, août 2023, 7 p.
 
46  « S’attaquer à la hype », danslesalgorithmes.net, 8 septembre 2025.
 
 
48  « 10 propositions pour une désescalade numérique », Collectifs pour une Désescalade numérique, consulté le 12 janvier 2026.
 
49  Pour approfondir, lire : « Créer avec l’IA, des alternatives écologiques existent », HACNUMedia, 29 septembre 2025.
 
50  Les premier·ères pensent qu’il faut activement prendre part aux développements technologiques et aux choix politiques associés, pour ne pas laisser les Big Tech avoir le monopole sur l’avenir de cette technologie. Les second·es estiment qu’une technologie développée avec des visées de domination, dans le système actuel, ne peut être détournée à des fins émancipatrices. D’une part, car ces alternatives contribuent tout de même à banaliser et à massifier l’usage de l’IAg, qui profite surtout aux LLM des Big Tech. Et en retour, car cela favorise le « verrouillage » de nos usages et des systèmes sociotechniques qui les rendent possibles (infrastructures, investissements, travail humain, etc.). La stratégie serait alors celle du non-usage, couplé à l’information critique sur les impacts multiples de l’IAg. Pour deux exemples de ces prises de position : « Se déconnecter ne déconnecte pas l’IA», Gregory Chatonsky, décembre 2025, consulté le 1 février 2026 ; Face à l’IA générative, l’objection de conscience. Manifeste pour l’enseignement supérieur et l’éducation nationale, op. cit.
 
51  T. Prévost, Les prophètes de l’IA. Pourquoi la Silicon Valley nous vend l’apocalypse, Lux, 2024, 216 p.
 
52  Pour une intelligence artificielle au service de l’intérêt général, CESE, avis rapporté par Erik Meyer et Marianne Tordeux Bitker, adopté le 14 janvier 2025, synthèse p. 4-16.
 
 
54  Pour plus de détails : « [Dossier] Comment les collectivités territoriales s’emparent-elles de l’intelligence artificielle ? », Labo Société numérique, 12 février 2025.