Menu

Pourquoi l’iOS 15 d’Apple analysera les photos et les messages de l’iPhone

12 août 2021 - Technologies
Pourquoi l’iOS 15 d’Apple analysera les photos et les messages de l’iPhone


Apple, la société qui a fièrement vanté la bonne foi de la confidentialité de ses utilisateurs dans son récent aperçu d’iOS 15, a récemment introduit une fonctionnalité qui semble aller à l’encontre de sa philosophie de confidentialité : la possibilité de numériser les photos de l’iPhone et d’alerter les autorités si l’une d’entre elles contient matériel pédopornographique (CSAM). Alors que lutter contre les abus sexuels sur enfants est objectivement une bonne chose, les experts en confidentialité ne sont pas ravis de la façon dont Apple choisit de le faire.

Les nouvelles « protections étendues pour les enfants » d’Apple pourraient ne pas être aussi mauvaises qu’il y paraît si l’entreprise tient ses promesses. Mais c’est aussi un autre rappel que nous ne possédons pas nos données ou nos appareils, même ceux que nous possédons physiquement. Vous pouvez acheter un iPhone pour une somme considérable, prendre une photo avec et le mettre dans votre poche. Et ensuite, Apple peut, au sens figuré, entrer dans cette poche et dans cet iPhone pour s’assurer que votre photo est légale.

La semaine dernière, Apple a annoncé que la nouvelle technologie de numérisation de photos pour CSAM sera installée sur les appareils des utilisateurs avec les prochaines mises à jour iOS 15 et macOS Monterey. Numérisation d’images pour CSAM n’est pas une nouveauté – Facebook et Google scannent les images téléchargées sur leurs plateformes depuis des années – et Apple est déjà en mesure d’accéder aux photos téléchargées sur des comptes iCloud. La numérisation des photos téléchargées sur iCloud afin de repérer CSAM aurait du sens et serait cohérente avec les concurrents d’Apple.

Mais Apple fait quelque chose d’un peu différent, quelque chose qui semble plus invasif, même si Apple dit que c’est censé l’être moins. Les numérisations d’images auront lieu sur les appareils eux-mêmes, et non sur les serveurs sur lesquels vous téléchargez vos photos. Apple dit également qu’il utilisera de nouveaux outils dans l’application Message qui numérisent les photos envoyées à ou par des enfants pour des images sexuelles, avec une option pour dire aux parents d’enfants âgés de 12 ans et moins s’ils ont vu ces images. Les parents peuvent opter pour ces fonctionnalités et toutes les analyses se déroulent sur les appareils.

En effet, une entreprise qui a pris non pas une mais deux positions largement médiatisées contre les demandes du FBI de créer une porte dérobée dans les téléphones de terroristes présumés. a apparemment créé une porte dérobée. On ne sait pas immédiatement pourquoi Apple prend cette décision de cette façon pour le moment, mais cela pourrait avoir quelque chose à voir avec les lois en instance à l’étranger et les lois potentielles aux États-Unis. Actuellement, les entreprises peuvent être condamnées à une amende pouvant aller jusqu’à 300 000 $ si elles trouvent CSAM mais ne le signalent pas aux autorités, bien que ils ne sont pas obligés de rechercher CSAM.

Suite à un contrecoup après son annonce initiale des nouvelles fonctionnalités, Apple a publié dimanche une FAQ avec quelques précisions sur le fonctionnement de sa technologie de numérisation sur l’appareil. Fondamentalement, Apple téléchargera une base de données d’images CSAM connues du National Center for Missing and Exploited Children (NCMEC) sur tous ses appareils. Le CSAM a été converti en chaînes de chiffres, de sorte que les images ne sont pas téléchargées sur votre appareil. La technologie d’Apple numérise les photos de votre photothèque iCloud et les compare à la base de données. S’il trouve un certain nombre de correspondances (Apple n’a pas précisé quel est ce nombre), un humain l’examinera puis le signalera au NCMEC, qui le prendra à partir de là. Il ne s’agit pas d’analyser les photos pour rechercher des signes indiquant qu’elles pourraient contenir du CSAM, comme semble le faire l’outil Messages ; il recherche simplement des correspondances avec des CSAM connus.

De plus, Apple indique que seules les photos que vous choisissez de télécharger sur iCloud Photos sont numérisées. Si vous désactivez les photos iCloud, vos photos ne seront pas numérisées. De retour en 2018, CNBC a rapporté qu’il y avait environ 850 millions d’utilisateurs d’iCloud, dont 170 millions payant pour la capacité de stockage supplémentaire (Apple offre à tous les utilisateurs d’iPhone 5 Go de stockage cloud gratuits). Donc, beaucoup de gens pourraient être touchés ici.

Apple affirme que cette méthode présente des « avantages importants en matière de confidentialité » par rapport à la simple numérisation de photos après leur téléchargement sur iCloud. Rien ne quitte l’appareil ou n’est vu par Apple à moins qu’il n’y ait une correspondance. Apple maintient également qu’il n’utilisera qu’une base de données CSAM et refusera toute demande du gouvernement d’y ajouter tout autre type de contenu.

Mais les défenseurs de la vie privée pensent que la nouvelle fonctionnalité ouvrira la porte à des abus. Maintenant qu’Apple a établi qu’il peut le faire pour certaines images, il va presque certainement lui être demandé de le faire pour d’autres. La Fondation Frontière Électronique voit facilement un avenir où les gouvernements font pression sur Apple pour qu’il analyse les appareils des utilisateurs à la recherche de contenu interdit par leurs pays, à la fois dans les photothèques iCloud sur l’appareil et dans les messages des utilisateurs.

« Ce n’est pas une pente glissante ; c’est un système entièrement construit qui n’attend que la pression extérieure pour apporter le moindre changement », a déclaré l’EFF. « En fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée. »

Le Center for Democracy and Technology a déclaré dans une déclaration à Recode que les nouveaux outils d’Apple étaient profondément préoccupants et représentaient un changement alarmant par rapport à la position précédente de l’entreprise en matière de confidentialité. Il espérait qu’Apple reconsidérerait sa décision.

« Apple n’offrira plus de messagerie entièrement cryptée de bout en bout via iMessage et sapera la confidentialité précédemment offerte pour le stockage des photos des utilisateurs d’iPhone », a déclaré CDT.

Will Cathcart, responsable du service de messagerie cryptée de Facebook WhatsApp, a fustigé les nouvelles mesures d’Apple dans un fil Twitter :

(Facebook et Apple sont en désaccord depuis qu’Apple a introduit sa fonction anti-pistage dans son système d’exploitation mobile, qu’Apple a présenté comme un moyen de protéger la vie privée de ses utilisateurs contre les entreprises qui suivent leur activité sur les applications, en particulier Facebook. Vous pouvez donc imaginer qu’un cadre de Facebook était très heureux d’avoir l’occasion de peser sur les propres problèmes de confidentialité d’Apple.)

Et Edward Snowden a exprimé ses pensées sous forme de mèmes :

Certains experts pensent que la décision d’Apple pourrait être bonne, ou du moins pas aussi mauvaise qu’on le prétend. Le blogueur technologique John Gruber demandé si cela pouvait donner à Apple un moyen de crypter entièrement les sauvegardes iCloud à partir de la surveillance gouvernementale tout en étant également capable de dire qu’il surveille le contenu de ses utilisateurs pour CSAM.

« Si ces fonctionnalités fonctionnent comme décrit et seulement comme décrit, il n’y a presque aucune raison de s’inquiéter », a écrit Gruber, reconnaissant qu’il existe toujours « des inquiétudes tout à fait légitimes d’experts dignes de confiance sur la façon dont les fonctionnalités pourraient être abusées ou mal utilisées à l’avenir ».

Ben Thompson de Stratechery souligné que cela pourrait être le moyen pour Apple de devancer les lois potentielles en Europe obligeant les fournisseurs de services Internet à rechercher CSAM sur leurs plateformes. Aux États-Unis, les législateurs américains ont essayé de passer leur propre législation qui exigerait soi-disant que les services Internet surveillent leurs plates-formes pour CSAM ou perdraient leurs protections de l’article 230. Il n’est pas inconcevable qu’ils réintroduisent ce projet de loi ou quelque chose de similaire au Congrès.

Ou peut-être que les motivations d’Apple sont plus simples. Il y a deux ans, le New York Times critiqué Apple, ainsi que plusieurs autres sociétés technologiques, pour ne pas avoir fait tout ce qu’ils pouvaient pour analyser leurs services à la recherche de CSAM et pour avoir mis en œuvre des mesures, telles que le cryptage, qui rendaient ces analyses impossibles et CSAM plus difficile à détecter. Internet était désormais « débordé » par le CSAM, a déclaré le Times.

Apple était d’accord avec le fait d’être accusé de protéger les données des terroristes morts, mais peut-être qu’être perçu comme permettant l’abus sexuel d’enfants était un pont trop loin.