"Alexa, donne moi un défi à faire". En prononçant ces mots, la fillette en question ne s'attendait certainement pas à ce que l'assistant vocal rattaché à l'enceinte connectée Echo conçue par Amazon, lui réponde par un challenge qui aurait pu brûler sa maison, lui coûter la vie ou la blesser gravement. Et pourtant.
C'est sa mère, Kristin Livdahl, qui a rapporté l'incident sur Twitter. "Nous faisions quelques défis physiques, comme s'allonger et se retourner en tenant une chaussure sur le pied, donnés par un professeur [d'éducation physique] sur YouTube plus tôt. Il faisait mauvais temps dehors. Elle en voulait juste un autre", raconte-t-elle.
Elle écrit qu'elle a entendu la requête de sa fille et Alexa répliquer par ces mots exacts, enregistrés dans l'historique de l'application à laquelle l'objet est relié : "Branche un chargeur de téléphone à peu près à moitié dans une prise murale, puis pose un centime contre les fiches exposées".
Paniquée, l'adulte a crié : "Non, Alexa, non !", ajoutant que sa fille n'aurait sûrement pas suivi les consignes mortelles de l'assistant, apparemment "trouvées sur le web". Consignes qui appartiennent en réalité au "penny challenge", une pratique qui fait rage sur les réseaux sociaux, et surtout sur TikTok, depuis environ un an.
Dans le journal The Press , le chef de poste à la caserne de pompiers de Carlisle East, située dans le Yorkshire au Royaume-Uni, alertait déjà en 2020 les parents sur les dangers de ce "jeu" : "je sais que vous pouvez perdre des doigts, des mains, des bras". Et d'ajouter : "Le résultat de tout cela est que quelqu'un sera gravement blessé".
En effet, les métaux conduisent l'électricité et les insérer dans des prises électriques sous tension peut provoquer des décharges électriques, des incendies et d'autres dommages.
Amazon a de son côté assuré avoir "corrigé l'erreur" dès que l'entreprise en a eu connaissance. "La confiance des clients est au centre de tout ce que nous faisons et Alexa est conçu pour fournir des informations précises, pertinentes et utiles aux clients", a-t-elle déclaré dans un communiqué.
Reste à espérer que la prochaine fois que l'intelligence artificielle mettra en danger un·e enfant, là aussi, ses parents soient assez proches pour lui éviter le pire - sans avoir à attendre qu'Amazon "corrige l'erreur" après complainte.