Apple dévoile de nouveaux outils pour détecter les contenus pédopornographiques

 D’ici à la fin de l’année, l’entreprise introduira un nouvel outil qui scannera certaines images téléchargées dans son système d’hébergement iCloud.

Apple a dévoilé jeudi 5 août de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses appareils et services d’hébergement iCloud, suscitant les inquiétudes de défenseurs de la vie privée sur Internet.

D’ici à la fin de l’année, au moment du déploiement d’iOS 15 et des nouveaux systèmes d’exploitation pour ses iPad, ordinateurs Mac et montres connectées, l’entreprise introduira un nouvel outil qui scannera certaines images pour déterminer si elles peuvent correspondre à des contenus pédopornographiques.

L’outil d’Apple fonctionne peu ou prou sur le même principe que nombre de méthodes utilisées par certains géants du Net pour lutter contre la pédopornographie. Aux Etats-Unis, le Centre national des enfants disparus et exploités (NCMEC) maintient une base de données d’images « hashées », c’est-à-dire que l’organisation ne stocke pas des images, mais des valeurs codées qui correspondent à ces photos. Cela permet, en codant n’importe quelle image en « hash », de la comparer aux contenus pédopornographiques connus des autorités.

Dans un communiqué, Apple a ainsi expliqué qu’avec son nouvel outil chaque photo qui s’apprête à être envoyée sur iCloud, le service d’hébergement de données et de sauvegarde offert aux clients de la marque, sera elle-même codée et se verra attribuer un « hash ». Cette valeur sera ensuite comparée à la base de données du NCMEC. Cette opération, selon Apple, se déroulera exclusivement sur l’appareil de l’utilisateur.

Si un certain nombre de photos sur un appareil d’Apple (un iPhone, un iPad, un Mac, etc.) sont considérées par le programme comme similaires à des contenus pédopornographiques connus, alors l’entreprise vérifiera ces signalements, désactivera le compte de l’utilisateur et fera un signalement au NCMEC, explique Apple dans un communiqué. Ce mécanisme ne fonctionnera que si l’utilisateur active la sauvegarde de photos dans iCloud, précise l’entreprise.

D’autres fonctionnalités

Le constructeur a par ailleurs annoncé que d’autres outils seront proposés pour lutter contre ce phénomène. Les photos reçues et envoyées par des enfants dont le compte est lié à un abonnement familial sur iMessage (la messagerie d’Apple) seront analysées. Si elles sont soupçonnées d’avoir un caractère sexuel, elles seront floutées et l’appareil affichera un message de prévention. Les parents peuvent également décider d’être prévenus dans ce cas.

Enfin, l’assistant vocal Siri sera aussi formé pour « intervenir » quand des utilisateurs font des recherches d’images pédopornographiques, en les prévenant que ces contenus sont problématiques.

Ces changements seront initialement déployés aux Etats-Unis, a confirmé Apple au site TechCrunch, qui ajoute que l’entreprise n’a pas précisé s’il était prévu de faire fonctionner ces outils dans le reste du monde, notamment en Europe.

Un système déjà utilisé ailleurs

L’outil introduit par Apple est déjà utilisé par plusieurs grandes plates-formes numériques. C’est par exemple le cas de Facebook et d’Instagram, qui ont à eux deux signalé plus de 21 millions de contenus pédopornographiques au NCMEC en 2020, selon le dernier rapport de l’organisation.

Google a également, depuis 2006, un partenariat avec le NCMEC, et l’entreprise scanne régulièrement les images passant par ses différents services – notamment YouTube – en s’appuyant sur la base de données de l’organisation. En 2014, Google a notamment signalé aux autorités un individu après avoir découvert des contenus pédopornographiques sur son compte Gmail.

Cependant, les annonces d’Apple, qui a érigé son marketing sur la protection des données de ses utilisateurs, ont fait réagir certains défenseurs de la vie privée. Pour l’Electronic Frontier Foundation (EFF), les changements apportés sont dangereux, et pourraient être détournés. « C’est une entaille dans la vie privée pour tous les utilisateurs d’iCloud Photos », explique l’organisation, qui estime par ailleurs que l’analyse des images envoyées dans iMessage affaiblit le chiffrement des conversations normalement promis par cet outil de messagerie. La crainte de l’EFF est notamment que ces outils, aujourd’hui conçus pour repérer les images pédopornographiques, ne puissent être détournés pour, par exemple, de la surveillance politique dans certains pays.

Freedom1 / Le Monde

0 comments :

Enregistrer un commentaire

التعليق على هذا المقال