Vous venez de passer dix minutes à supprimer un à un vos enregistrements vocaux dans l’app Alexa. Geste conscient, démarche responsable, sauf qu’il reste un problème. Ces fichiers audio sont toujours là. Pendant encore plusieurs heures, ils continuent d’exister sur les serveurs d’Amazon, bien au chaud dans le cloud, en attente de traitement. La suppression que vous venez d’ordonner n’est pas instantanée. Loin de là.
À retenir
- Le délai réel de suppression chez Amazon peut atteindre 36 heures, pas immédiat
- Les transcriptions textuelles persistent 30 jours même si l’audio est supprimé
- Depuis mars 2025, plus d’option pour traiter les requêtes localement sans cloud
Ce qu’on croit faire, et ce qui se passe vraiment
La plupart des enceintes connectées envoient et stockent les requêtes des utilisateurs ainsi que les données associées dans le cloud, sur les serveurs de traitement de la société. C’est le fonctionnement de base. Quand votre enceinte s’active, elle enregistre tout depuis le mot de déclenchement jusqu’à la fin de votre demande, et ce fichier audio est ensuite envoyé vers le cloud d’Amazon ou de Google, où il est traité par des systèmes automatisés, et parfois, par des humains.
Là où ça devient intéressant : quand vous appuyez sur “Supprimer” dans l’application, vous ne déclenchez pas une destruction immédiate du fichier. Il peut s’écouler jusqu’à 36 heures pour qu’Amazon supprime vos enregistrements vocaux. Trente-six heures. Pendant ce laps de temps, votre demande de suppression est enregistrée, mais les fichiers existent toujours dans l’infrastructure cloud. Amazon le confirme d’ailleurs sans équivoque dans sa documentation officielle : les enregistrements vocaux restent visibles jusqu’à ce que la demande de suppression ait terminé son traitement.
Pour Google, c’est similaire dans le principe : par défaut, l’option est réglée sur “Ne pas supprimer automatiquement”, et contrairement à Amazon qui propose une option interdisant le stockage des enregistrements, Google impose une rétention minimale de 3 mois. même si vous êtes militant de la vie privée, vous ne pouvez pas demander à Google de tout effacer immédiatement.
Le délai de traitement : une réalité technique ou un choix commercial ?
Les entreprises justifient ce délai par la complexité de leur infrastructure distribuée. Les fichiers audio ne sont pas stockés en un seul endroit, ils sont répliqués sur plusieurs serveurs dans des data centers différents, précisément pour garantir la disponibilité du service. Supprimer un fichier implique donc de propager cette suppression à travers tout le système. Techniquement recevable.
Mais il y a une autre réalité, moins flatteuse. Même en supprimant les fichiers audio liés à Alexa, certaines données relatives à ces échanges avec l’assistant vocal seraient conservées. Amazon a été interpellé à ce sujet par un sénateur américain et a révélé que les données enregistrées par Alexa n’étaient pas systématiquement totalement supprimées, même en cas de demande explicite de l’utilisateur. Cette révélation, qui date de 2019, n’a depuis jamais été totalement démentie.
Même si vous choisissez de ne pas sauvegarder les enregistrements vocaux, les transcriptions textuelles et les requêtes saisies sont conservées pendant 30 jours après votre dernière interaction avec Alexa : Amazon les retient pour vous permettre de consulter vos demandes et améliorer votre expérience. Ce n’est donc pas l’audio qui persiste, mais son empreinte textuelle. Subtil.
Alexa+, IA générative et la fin du traitement local
Le contexte s’est encore durci depuis mars 2025. À compter du 28 mars 2025, l’option de contrôle vocal local d’Alexa n’est plus disponible sur les appareils Amazon Echo, obligeant les utilisateurs à faire transiter leurs requêtes par les serveurs d’Amazon. Cette option, le paramètre “Ne pas envoyer les enregistrements vocaux”, permettait à certains modèles Echo de traiter la voix directement sur l’appareil, sans rien expédier dans le cloud.
Amazon justifie cette décision par l’intégration croissante de l’IA générative dans son assistant vocal : la fonction “Ne pas envoyer les enregistrements vocaux” ne sera plus disponible à partir du 28 mars, car ils ont décidé de ne plus prendre en charge cette option en continuant à étendre les capacités d’Alexa. Amazon veut exploiter ces enregistrements pour entraîner Alexa+, sa première IA conversationnelle basée sur un grand modèle de langage.
Des experts en cybersécurité soulignent que ce changement pourrait exposer davantage les utilisateurs aux risques d’exploitation par des tiers de leurs enregistrements vocaux, notamment en cas de failles de sécurité ou d’utilisation abusive. Un risque qui n’est pas théorique : une étude de l’université Northeastern a établi que les enceintes intelligentes s’activent accidentellement et enregistrent des conversations parfois jusqu’à 19 fois par jour, avec des captures pouvant durer jusqu’à 43 secondes. Imaginez le volume de données générées, puis le délai nécessaire pour les effacer toutes.
Ce que vous pouvez réellement faire
La suppression manuelle reste votre principal levier, malgré ses limites. Depuis l’application Alexa, vous pouvez choisir de supprimer automatiquement vos enregistrements vocaux de plus de 3 ou 18 mois. C’est imparfait, mais c’est mieux que de laisser tout s’accumuler indéfiniment. Amazon stocke ces enregistrements par défaut, sans limitation de durée.
Apple joue dans une autre catégorie. La marque insiste sur le traitement sur l’appareil et le chiffrement de bout en bout, les enregistrements Siri sont liés à des identifiants aléatoires, pas à des Apple ID, et sont supprimés après six mois sauf si l’utilisateur opte explicitement pour leur conservation. Pas parfait non plus, mais l’approche est structurellement différente.
La commande vocale directe est la méthode la plus rapide : en disant “Alexa, supprime tout ce que j’ai dit aujourd’hui” ou “Alexa, supprime tout ce que j’ai dit”, vous déclenchez l’effacement de l’ensemble des enregistrements associés à votre compte. La suppression reste soumise au même délai de traitement, mais elle est plus systématique qu’un clic dans une interface.
Et pour ceux que la question obsède vraiment : couper le microphone de l’enceinte lorsque vous avez des conversations privées ou sensibles reste la mesure la plus efficace, cela réduit la surface d’attaque et limite les risques d’accès non autorisé. Un bouton physique que tous les Echo possèdent. Radical, mais irréfutable.
La vraie question que posent ces délais de suppression n’est pas technique, elle est de confiance. Quand il s’agit de protéger vos données, Amazon dispose des moyens et des outils pour le faire, mais au final, tout repose sur la confiance que vous accordez à l’entreprise. Avec Alexa+ et l’IA générative désormais au cœur du dispositif, cette confiance devient le seul paramètre de confidentialité qu’aucune app ne peut configurer à votre place.
Sources : journaldugeek.com | presse-citron.net