jouets espion

Ces jouets qui nous espionnent

Les jouets font briller la joie des petits, mais peuvent aussi être des véritables sources d’inquiétude pour les adultes. Outre le risque de se faire empoisonner par les matériaux de fabrication, il y a également la possibilité de se faire espionner. Découvrez-en davantage à travers ces brefs paragraphes.

Un jouet connecté peut être un espion

Des chercheurs ont récemment découvert que certains jouets connectés sont capables de dérober des renseignements confidentiels. Ce sont des poupées ou des animatroniques qui peuvent tenir une conversation avec un enfant. Comme les appareils sont reliés à Internet, il peut arriver que les données personnelles soient détournées.

L’intelligence artificielle que certains jouets électroniques embarquent pourra être interceptée par des pirates informatiques. Les programmes malveillants attendent le bon moment pour donner au hacker une ouverture à une agression. Encore pires, les personnes derrière la manœuvre frauduleuse peuvent se faire passer pour un chatbot pour ne pas éveiller les soupçons.

Les cadeaux de Noël sont loin d’être tous anodins

Après avoir longuement étudié la question, les chercheurs sont parvenus à la conclusion que les jouets achetés à Noël comptent des modèles trafiqués. Parmi les exemples cités, il y a la Barbie Hello de Mattel. Cette poupée est programmée pour apprendre le langage naturel grâce à la machine-learning et des algorithmes analytiques. Les réponses sont pertinentes, mais les méfaits sont également proportionnels.

Pour tenir une conversation avec un enfant, un jouet connecté doit enregistrer la totalité des échanges verbaux avec lui. Tous les dialogues sont ensuite envoyés vers un serveur en Cloud Computing. Ces informations sont par la suite exploitées de manière à construire des phrases et toutes sortes d’intervention. Les scientifiques estiment que les entreprises telles que Mattel ne sont pas les seules à avoir accès aux dialogues enregistrés. Disney est également dans le collimateur des spécialistes.

Des poupées qui épient vos faits et gestes

Plusieurs avocats se sont regroupés pour porter plainte contre l’industrie du jouet. Ils ont saisi la FCC, l’autorité compétente dans le domaine pour dénoncer des manipulations malintentionnées. À l’instar de My Friend Cayla et de i-Que Intelligent Robot, certains produits destinés à un jeune public sont soupçonnés d’extraire des données à des enfants. Comme pour Siri ou Alexa qui tendent l’oreille en permanence, leurs micros ne sont jamais éteints.

A lire également  COVID-19 : Les applications de suivi sont-elles véritablement sûres ?

Nuance Communications figure parmi les entreprises spécialisées qui gèrent l’apprentissage de la parole. Ce prestataire fournit la technologie pour les poupées qui parlent. Pourtant, il aurait également signé un contrat avec l’armée américaine. Cette même société collabore avec les services de renseignements entre les mains du gouvernement fédéral des États-Unis. Ce qui laisse imaginatifs sur le détournement de l’utilisation des jouets.

Exposition au piratage et aux extorsions en tout genre

Les fabricants de jouets ne sont pas tous foncièrement malintentionnés. Ils sont loin de chercher à voler des informations confidentielles. Les experts leur reprochent de ne pas mieux protéger leurs produits contre le piratage. À titre d’exemple, My Friend Cayla équipe leurs poupées connectées de la technologie Bluetooth. La liaison non sécurisée laisse une large ouverture pour un pirate informatique. Ce malandrin n’aura même pas besoin d’un PC performant pour s’introduire dans le système et d’écouter la conversation.

La plainte actuellement en traitement auprès de la FCC évoque que le jouet i-Que présente également une faille. Le grand nombre de jeunes utilisateurs qui possède ce compagnon virtuel laisse imaginer le large choix de cibles entre la main des pirates informatiques. À l’heure où les chatbots sont capables d’agir quasiment comme un humain, il est difficile de distinguer une ménace réelle d’une plaisanterie. La prudence est de mise.

Yohann G.