ChatGPT dans ma peluche : l’inquiétant virage IA de l’industrie du jouet

Le géant du jouet américain Mattel (Barbie, Hot Wheels, Fisher-Price…) a annoncé en juin dernier avoir noué un partenariat avec OpenAI. L’ambition affichée est d’apporter « la magie de l’IA » dans les jouets « à tout âge ». Un cycle inquiétant déjà entamé par la start-up Curio, qui a lancé une poupée boostée avec ChatGPT, ou tout simplement par les agents conversationnels. En face, la législation peine à suivre le rythme.

Était-elle arrivée trop tôt ? Mattel avait lancé, dès 2015, une Barbie équipée d’un système de reconnaissance vocale, surnommée « Barbie Stasi » par la presse allemande. Une polémique et un flop commercial qui n’ont pas refroidi les ardeurs du géant américain. Le leader mondial du jouet, propriétaire de Barbie mais aussi Hot Wheels, Fisher-Price ou encore Polly Pocket, a annoncé le 12 juin une « collaboration stratégique » avec OpenAI.

Josh Silverman, directeur des franchises Mattel, précise alors que ses jouets ont pour ambition de « divertir le public et enrichir la vie par le jeu ». Mais aussi le portefeuille de la marque puisque l’industrie du marché des jouets connectés devrait passer de 6,45 milliards de dollars en 2023 à 25,5 milliards d’ici 2032, soit un taux de croissance d’environ 16,5 % en huit ans d’après les chiffres du Market research future.

« Les enfants n’ont pas la capacité cognitive de distinguer pleinement la réalité du jeu »

Robert Weissman, coprésident de Public Citizen,

Intégrer l’IA dans des jouets pose de nombreuses questions. Robert Weissman, coprésident de Public Citizen, ONG américaine de défense d’intérêts des consommateurs, a d’emblée partagé ses inquiétudes : « Les enfants n’ont pas la capacité cognitive de distinguer pleinement la réalité du jeu. Doter les jouets de voix humaines capables d’engager des conversations risque de causer de réels dommages aux enfants. Cela pourrait nuire à leur développement social, interférer avec leur capacité à nouer des relations, les éloigner des jeux avec leurs pairs et potentiellement leur infliger des dommages à long terme.1 »

Ce programme affiché par Mattel de « réinventer de nouvelles formes de jeu » est inquiétant mais pas si nouveau. Curio commercialise en effet depuis décembre 2023 Gabbo, Grok ou Grem, des peluches à l’aspect inoffensif dopées par ChatGPT. Ces poupées sont vendues comme « un antidote à la dépendance des enfants aux écrans pour se divertir ». Voilà comment exploiter les inquiétudes générées par une technologie pour promouvoir la suivante. La start-up vante aussi la stimulation de la créativité enfantine. Mais l’imaginaire des enfants a-t-il besoin d’un chatbot ? « Si l’IA n’a pas de créativité propre, peut-elle vraiment aider les enfants à s’engager dans un jeu créatif ? Pour un enfant donné, l’IA pourrait améliorer ses performances, mais pour une société, on pourrait observer une diminution de la diversité des expressions créatives », explique la chercheuse Ying Xu, professeure d’éducation à la Harvard Graduate School of Education, dans le Guardian du 2 octobre 20252.

De son côté, Casio promeut Moflin, un « robot de compagnie », sous l’aspect thérapeutique. « On peut imaginer des côtés positifs, thérapeutiques ou des alertes confiées au jouet. Parler d’inceste à sa poupée est peut-être plus facile pour un enfant. Mais c’est d’abord une double faillite de l’État, pour le manque d’encadrement mais aussi sociétale. Déléguer l’échange avec ses enfants à une IA générative dit beaucoup de notre société », explique Louis de Diesbach, éthicien de la technique, auteur de Bonjour ChatGPT3.

Les dérives d’un tel jouet posent d’autant plus question que les différentes IA génératives présentent des biais : hallucinations, racisme, fausses informations… Cela peut même conduire à des drames. Conseillé par son robot conversationnel sur la rédaction de sa lettre d’adieu et la méthode à employer pour mettre fin à ses jours, Adam Raine s’est suicidé le 11 avril 2025, à l’âge de 16 ans.

« Les parents doivent savoir que ces systèmes ne sont pas conçus dans l’intérêt des enfants »

« Les parents doivent savoir que ces systèmes ne sont pas conçus dans l’intérêt des enfants. Une technologie reposant sur des modèles de langage ne peut pas éprouver d’empathie, car ce n’est qu’un logiciel prédictif. Lorsqu’ils s’accrochent à des émotions négatives, c’est pour prolonger l’engagement à des fins lucratives. Et il n’y a aucun résultat positif possible pour un enfant dans ce cas4 », précise Andrew McStay, professeur de technologie et société à l’université de Bangor, spécialiste de la recherche sur les systèmes d’IA émotionnelle.

Emily Goodacre, chercheuse en psychologie du développement, travaille actuellement sur les impacts de ces jouets sur les enfants, comme elle l’explique à La Brèche : « Ces nouveaux jouets soulèvent de nombreuses questions, notamment quant à leur impact potentiel sur le développement et les relations des enfants. Notre recherche vise à explorer ces impacts potentiels en interrogeant des parents, des enfants et des professionnels de la petite enfance. Nous étudions notamment les impacts possibles de ces jouets qui pourraient toucher de manière disproportionnée les enfants issus de milieux défavorisés. »

Dès l’annonce de ce partenariat inédit, Mattel a assuré vouloir apporter « la magie de l’IA à des expériences de jeu adaptées à chaque âge, en mettant l’accent sur l’innovation, la confidentialité et la sécurité ». Nous avons bien sûr voulu savoir comment. Malheureusement la firme américaine n’a pas daigné répondre à nos questions. Ce flou sur la confidentialité et la sécurité risque-t-il de remettre en cause l’acceptation du grand public de ces jouets boostés à l’IA ? Louis de Diesbach en doute : « Être surveillés, écoutés en permanence par nos appareils électroniques semble largement accepté aujourd’hui. On l’a intégré et ça ne semble plus poser de question. La Tech a réussi un coup de génie, celui de faire croire que la régulation allait freiner l’innovation. »

« La société devra trouver de nouveaux garde-fous »

Sam Altman, PDG d’OpenAI

Avec les assistants vocaux, ChatGPT est déjà dans les mains des enfants, non sans incidences. L’histoire se passe dans le nord-ouest de l’Ohio. Josh, père de 40 ans, fatigué d’entendre son fils de quatre ans tourner en boucle sur Thomas le petit train, lui passe son téléphone sur le mode vocal de ChatGPT, pour que ce dernier finisse son histoire. Quand il revient deux heures plus tard, il le retrouve encore en train de discuter avec le téléphone. « Mon fils pense que ChatGPT est la personne la plus cool au monde, et qu’il adore les trains », confiait-il sur Reddit, site communautaire de discussion, début juin. Son post intitulé « J’ai merdé aujourd’hui en laissant mon fils de 4 ans parler à ChatGPT » devient rapidement viral. En réponse, Sam Altman, le PDG d’OpenAI, déclare amusé : « Les enfants adorent le mode vocal de ChatGPT », reconnaissant tout de même qu’il y « aura des problèmes » et que « la société devra trouver de nouveaux garde-fous5 ».

Diego Hidalgo Demeusois, qui a lancé le mouvement international Off pour sensibiliser le grand public aux enjeux numériques, « prône une analyse des coûts et bénéfices des technologies qui envahissent notre quotidien. Quels bénéfices attend-on de ces jouets ? Les enfants seront plongés dans l’univers de l’IA générative qui permet d’externaliser nos facultés à la machine dès le plus jeune âge. On est très loin des besoins pour le développement de l’enfant ». Un principe de précaution étendu au numérique défendu également par Louis de Diesbach qui rappelle que « les géants de la Tech violent souvent les règles éthiques mais rarement la loi. Donnons-leur un cadre strict ! ». Devant l’évolution très rapide des technologies, la loi peine à répondre efficacement. En France, tout jouet connecté doit respecter le Règlement général sur la protection des données (RGPD), notamment concernant la protection des données des mineurs. Et au niveau européen, l’AI Act, qui doit permettre de mieux encadrer l’utilisation de l’intelligence artificielle, classe ces nouveaux jouets « à haut risque ». Cela implique d’assurer la sécurité des données, une supervision humaine, de la transparence et une absence d’exploitation émotionnelle ou commerciale abusive. L’entrée en vigueur concernant cet aspect du texte adopté en 2024 doit intervenir dès… 2027. Un AI Act que les mastodontes du numérique tentent déjà de détricoter. Ils ont deux ans.

Clément Goutelle

Illustration : Christophe Girard

Paru dans La Brèche n° 14 (décembre 2025 – février 2026)

  1. « Mattel’s Open AI collaboration is dangerous for children », https://citizen.org, 17 juin 2025 ↩︎
  2. « My son genuinely believed it was real: Parents are letting little kids play with AI. Are they wrong? », The Guardian, 2 octobre 2025 ↩︎
  3. Diesbach Louis de, Bonjour ChatGPT, comment l’IA change notre rapport aux autres, Mardaga, 2024 ↩︎
  4. « My son genuinely believed it was real: Parents are letting little kids play with AI. Are they wrong? », op. cit. ↩︎
  5. The OpenAI Podcast Ep. 1, 18 juin 2025 ↩︎

Cet article est en libre accès mais n’est pas gratuit. Un dessinateur et un journaliste ont travaillé car nous défendons un journalisme fait par et pour des humains. Cela a un coût : soutenez-nous par un don et/ou en vous abonnant pour recevoir 6 numéros dans votre boîte aux lettres ! Plus de 1 500 personnes reçoivent déjà La Brèche chaque trimestre, pourquoi pas vous ?

Nous mettons en ligne les articles une fois que le numéro papier n’est plus en kiosque. Pour acheter le dernier numéro, c’est ici !