Od jakiegoś czasu latają mi na mastodonie różne artykuły odnośnie “chatkontrolle”, niby jakiś pomysł Komisji Europejskiej, by pod pretekstem walki z “przemocą seksualną” zmusić (nie wiem kogo - policję? dostawców? twórców programów?) do czytania rozmów na komunikatorach i uniemożliwienia szyfrowania rozmów. Wychodzi na to, że sprawa dość znana tylko mi jakoś umknęło. Wiecie coś na ten temat? Możecie polecić coś po polsku dla ludzi nowych w temacie?

  • @rysiek
    link
    7
    edit-2
    2 years ago

    Tekst propozycji:
    https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2022%3A209%3AFIN&qid=1652451192472

    Uwaga, długie.

    W telegraficznym skrócie, kluczowy problematyczny fragment wprowadza nakaz wdrożenia przez producentów smartfonów lub operatorów usług typu Signal “algorytmów”, które “identyfikowały” by treści (zdjęcia, filmy) pokazujące wykorzystywanie seksualne osób nieletnich.

    Apple testowało swój NeuralHash w tym celu:
    https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf

    Oczywiście błyskawicznie okazało się, że nietrudno wygenerować kolizje:
    https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1

    Co oznacza, że jeśli taki system byłby wdrożony, ktoś mógłby wysłać komuś, kogo nie lubi, niewinnie wyglądające zdjęcie, które miało by ten sam NeuralHash co jakieś znane zdjęcie zawierające pornografię dziecięcą. Apple flaguje, bagiety wbijają, elo.

    To oczywiście bardzo płytkie podsumowanie na szybko. Ale generalnie to jest przypadek “think of the children” i magicznego myślenia o technologii.

    • @didlethOP
      link
      3
      edit-2
      2 years ago

      dzięki wielkie! Ciekawe, na czym finalnie się skończy. Edit: przysiadłam teraz nad artykułem z linka i rzeczywiście wygląda to grubo. Ciekawe, czy w Polsce ktoś się tym zajmuje.