Depuis plusieurs semaines, de nombreux utilisateurs se plaignent de l’incapacité des assistants vocaux (Siri, Google Now, S Voice, ou encore Cortana) à réagir en cas d’agressions sexuelles ou de violences conjugales. Une équipe de scientifiques des universités de Stanford et de Californie en a même fait une étude et les résultats ne sont pas très convaincants. Dans de tels cas, les applications d’assistance vocale ne réagissaient pas de la bonne façon…
RAINN est un organisme américain dont les activités consistent à assister les personnes victimes d’inceste, de viol et d’abus sexuel. Celui-ci prendra en charge la personne et l’aidera à surmonter ses problèmes et à retrouver l’agresseur. Bien sûr, comme vous pouvez déjà l’imaginer, une telle fonction sur Siri n’est pas encore disponible en Français. Toutefois, on espère que ce sera pour bientôt.
Adobe Photoshop 2024