Apple par

Apple traque les pédophiles sur iCloud

La marque à la pomme dispose d’un service nommé iCloud, qui permet de sauvegarder vos photos et fichiers directement “dans le nuage”, sur un serveur distant, pour pouvoir accéder à vos données depuis tous vos appareils. Le truc, c’est qu’Apple s’est donné le droit il y a quelques mois d’accéder aux images présentes dans le cloud. L’objectif ? Les faire examiner par une intelligence artificielle qui doit… repérer toutes les images à caractère pédopornographique. Et c’est Jane Horvath, directrice la partie confidentialité et vie privée chez Apple, qui l’a dévoilé lors du CES.

Apple traque les pédophiles sur iCloud

L’intention est louable, même si une telle démarche risque malgré tout de refroidir ceux ayant des donnés sensibles sur le Cloud. L’Intelligence Artificielle fonctionne grâce à une technologie de comparaison, c’est à dire qu’elle valide ou pas les images de iCloud pour déterminer si oui ou non elle peut être classée comme image à caractère pédopornographique.

Lorsque l’image est caractérisée comme telle, l’utilisateur ayant téléchargé cette photo sur iCloud voit son compte immédiatement fermé. En espérant que l’IA ne commette pas d’erreur… Encore une fois, difficile ne pas considérer cette nouvelle comme bénéfique, tant que la pédopornographie est malheureusement présente sur Internet. Mais quid de la confidentialité des utilisateurs, qui payent pour un service ?

4/5 - (1 vote)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *