Apple już wcześniej zarzuciło pomysł uruchomienia w iCloud narzędzia skanującego treści w celu wykrywania nadużyć seksualnych wobec nieletnich - eksperci i organizacje. broniące cyfrowych praw podstawowych argumentowali, że narzędzie stanowiłoby poważne ryzyko dla prywatności i bezpieczeństwa wszystkich użytkowników. Temat wrócił, gdy organizacja Heat Initiative domagała się wprowadzenie CSAM do usług Apple’a, aby zmusić firmę do “wykrywania, zgłaszania i usuwania” szkodliwych treści.

Erik Neuenschwander, dyrektor Apple ds. prywatności użytkowników i bezpieczeństwa dzieci odpowiedział Heat Initiative, że praca nad narzędziem jest niemożliwa - doprowadziłoby ono bowiem do szeregu zagrożeń, umożliwiając kradzież danych i inwigilację na dużą skalę. "“Doszliśmy do wniosku, że nie jest to praktycznie możliwe do wdrożenia bez narażania bezpieczeństwa i prywatności naszych użytkowników”. Zamiast tego proponuje ofiarom nadużyć kontakt z lokalnymi organami ścigania.

Na podstawie: https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

  • Kierunkowy74@karab.in
    link
    fedilink
    arrow-up
    2
    ·
    1 year ago

    Uwaga do tłumaczenia - mowa o skanowaniu treści pod kątem CSAM (child sexual abuse material - dosł. „materiały z nadużyć seksualnych wobec nieletnich”) - tj. pornografii dziecięcej.

    • didlethOP
      link
      fedilink
      arrow-up
      3
      ·
      1 year ago

      no…tak, dokładnie o to chodziło - użyłam skróty myślowego, ale masz rację

      • nudny ekscentryk
        link
        fedilink
        arrow-up
        4
        ·
        1 year ago

        Tak jak to napisałaś brzmiało, jakby sami rozważali wprowadzenia pornografii dziecięcej jako usługi

        • didlethOP
          link
          fedilink
          arrow-up
          1
          ·
          1 year ago

          aaaa…fakt, dopiero teraz jak zwróciłeś uwagę to to zauważyłam ^^’ Sorry