TRANSKRYPCJA VIDEO
W tym odcinku podcastu Niebezpiecznik na Podsłuchu, gospodarze omawiają propozycję wprowadzenia metod kontroli treści w internecie, szczególnie automatycznego wykrywania treści uznanych za pedofilskie. Zastanawiają się nad realnością i skutecznością takich działań oraz czy konsultowano je z ekspertami technicznymi. Poruszają także podobieństwa do wcześniejszych dyskusji na temat blokowania stron internetowych i potencjalnego zwiększenia inwigilacji.
Omawiają różne tematy związane z usługami hostingowymi i treściami online, zastanawiając się, czy osoby chcące hostować pewne typy treści po prostu idą do sklepu z hostingiem i kupują usługę hostingową. Wspominają także o możliwości samodzielnego zostania dostawcą hostingu. Wyrażają obawy dotyczące trudności w regulacji i ocenie treści online.
Podsumowują poprzednie artykuły, które napisali na temat ochrony dzieci w internecie i analizy treści na iPhone'ach. Stwierdzają, że trudno jest pogodzić całkowite usunięcie pewnych materiałów z prywatnością użytkownika.
Rozważają znaczenie prywatności i konieczność zrównoważenia jej z wysiłkami na rzecz zwalczania wykorzystywania dzieci w internecie. Wspominają o wyzwaniach związanych z wykrywaniem pewnych treści przez algorytmy i wzroście liczby zgłoszonych przypadków podczas pandemii COVID-19.
Omawiają różne warianty technicznych rozwiązań do wykrywania materiałów związanych z wykorzystywaniem dzieci w internecie, potrzebę regularnych kontroli w domach, trudność wyznaczania granic w świecie online, oraz pięć wariantów proponowanych przez Unię Europejską.
Poruszają kwestię komunikacji zaszyfrowanej i wyzwania, jakie stawia ona przed organami ścigania. Wspominają, że tradycyjne formy komunikacji, takie jak telefony i listy, zostały zastąpione przez zaszyfrowane aplikacje do wysyłania wiadomości, co utrudnia władzom dostęp do treści tych wiadomości.
Omawiają wprowadzenie rejestru zakazanych i konieczność zapewnienia prywatności komunikacji. Wspominają o warstwach szyfrowania i backdoorach, które należy uwzględnić w celu wdrożenia takiego systemu na dużą skalę.
Dyskutują o wprowadzeniu regulacji mających na celu ograniczenie dystrybucji przetworzonych lub wyprodukowanych materiałów. Wspominają, że były dyskusje na ten temat w przeszłości, kiedy nie było tak wielu narzędzi dostępnych do tego celu.
Omawiają narażenie ludzi na brutalne i niepokojące treści na platformach społecznościowych, takich jak TikTok i inne, które mogą negatywnie wpływać na ich zdrowie psychiczne. Sugerują, że ktoś powinien zająć się tym problemem, być może za pomocą środków prawnych lub oferując użytkownikom korzyści za instalowanie pewnego oprogramowania.
Poruszają temat możliwości odszkodowania i naruszenia prywatności w związku ze skanowaniem urządzeń osobistych. Wyrażają swoje niezgadzanie się z tym pomysłem i podkreślają potrzebę ochrony prywatności.
Omawiają pomysł wprowadzenia opłat za korzystanie z platform społecznościowych jako
Witam Was w 56 odcinku naszego podcastu redakcyjnego Niebezpiecznika na Podsłuchu. Jest ze mną dwóch wybitnych specjalistów od bezpieczeństwa oraz, co już nie każdy pamięta, raperów Kuba i Piotrek. Przy okazji to 56 odcinek, nie wiem czy znacie symbolikę liczby 56. Nie bardzo, można powiedzieć. A tu was zaskoczył. Będzie cudowny odcinek. Myśleliście, że będzie coś matematycznego, coś ciekawego, a tu takie coś. No ale właśnie. Różne liczby przychodzą mi na myśl, kiedy myślę o tematyce tego odcinka, bo zdecydowaliśmy się omówić jedną z największych, być może jedną z największych kolejnych prób wprowadzenia tego odcinka. inwigilacji na niespotykaną dotąd skalę. Dotąd takie próby wypadały raz lepiej, raz gorzej. Natomiast ma to związek z propozycjami Komisji Europejskiej, które padły tak naprawdę już w listopadzie zeszłego roku. Chodzi o wprowadzenie. . .
takich metod kontroli treści w internecie, które obejmowałyby automatyczne wykrywanie treści uznanych za pedofilskie i zgłaszanie ich od razu odpowiednim organom. Ma to trochę związek z tym, co już opisywaliśmy i omawialiśmy też w podcastach, a co dotyczyło firmy Apple, która też miała w ramach swojej usługi iCloud podobne mechanizmy wprowadzić. Ja teraz nie chcę wyczerpać tematu już zaczynając o nim mówić, ale powiem tak. Trudno mi było pozbyć się pewnego déjà vu. bo jakieś 10 lat temu, około roku 2010 i później jeszcze w dwóch kolejnych latach mieliśmy w Polsce i w Unii dość dużą dyskusję na temat mechanizmów blokowania stron internetowych i wtedy właśnie proponowano to w imię walki z profilią.
Tak samo kiedy w Polsce dawno, dawno temu proponowano rejestr stron i usług niedozwolonych, to też mówiono, że przy profili też pomoże, a więc generalnie jeśli można powiedzieć, że jest już utartym mechanizmem, jeśli chcemy wprowadzić. . . jakiś rodzaj kontroli treści w internecie, czy to cenzurę, czy to blokowanie, to najlepiej jest powiedzieć, zróbmy to w imię walki z p******ą. I dyskusje na ten temat się toczą. Niedawno w takiej dyskusji brał udział m. in. europejski inspektor ochrony danych, a wcześniej polski inspektor ochrony danych, ten Górański. główne, czyli Wojciech Wiewiórowski. Może zacznę od spytania Was, Piotrku i Kubo, co myślicie o zaproponowanych rozwiązaniach i na ile się z nimi zapoznaliście.
Ja się zapoznałem, ale mam takie przemyślenia w sumie jak ty, to znaczy powtórka z rozrywki raz jeszcze podchodzimy do tego samego tematu, ale to co mnie najbardziej interesuje to jest zagadnienie technologiczne. To znaczy na ilu warstwach ten pomysł jest albo nierealny do wykonania, albo dziecinnie prosty do obejścia. Więc zastanawiam się czy to było realnie konsultowane z kimś takim naprawdę mocno technicznym, czy to jest taki pomysł na zasadzie. a spróbujmy zablokować. Będziemy mieli inwigilację całego netu, będziemy mieli wgląd do wszystkiego, co się dzieje. A pytanie, czy zwróciłeś uwagę, bo w dokumencie, który przeczytaliśmy na ten temat jest mowa o różnych wariantach A, B, C, D, E. Mnie zainteresowała jedna rzecz. Wszystko, co miało wspomnienie czegoś takiego, jak usługodawca hostingu, firma hostingowa albo coś, co świadczy hosting.
Dlaczego by mnie to zainteresowało? No bo sam świadczę takie usługi i zastanawiałem się, co będzie mnie dotyczyć. I moje obowiązki na przykład? No, to. . . są trochę absurdalne, to znaczy właśnie wykrywanie na bazie tego co ja hostuję, jak tam wszystko wygląda, tylko zastanawiam się czy realnie ktoś kto chciałby hostować tego rodzaju treści po prostu idzie do sklepu z hostingami, kupuje sobie taki, nie wiem, jakiegoś tam home azeta, nazwę czy coś takiego, uploduje te wszystkie rzeczy i po prostu tam to hostuje. Biorąc pod uwagę jedną taką rzecz, że w obecnych czasach każdy może stać się na przykład hostingodawcą, że tak powiem, czyli samemu hostować swoją stronę, każdy może. . .
stać się serwerem mailowym, każdy może stać się swoim własnym komunikatorem, no bo mamy na przykład tak zwanego Fediversa, czyli załóżmy implementację taką jak Mastodon, no to się mi nie skleja, po prostu nie wpisuje się tak jakby w wizję świata jaką mają ci, którzy to proponują. Ja chyba tylko dodam i podkreślę, że rozumiem, że wszyscy się zgadzamy z tym, że dzieci trzeba chronić i z pediom należy walczyć. Natomiast no men o men nie warto wylewać dziecka z kąpielą. Większość z tych proponowanych przez różne instytucje i stowarzyszenia, bo Marcin mówiłeś o wcześniejszych propozycjach i ustawach, na szybko sobie popatrzyłem, bo kojarzę taki tekst z Niebezpiecznika z 2019 roku.
gdzie Stowarzyszenie Twoja Sprawa próbowało zachęcić do stworzenia nowego prawa, który miałby chronić dzieci w internecie i tam między innymi mówiono o dostępie do stron dla dorosłych. tylko i wyłącznie po poprzedniej weryfikacji wieku. My te artykuły podlinkujemy. W ogóle obawiam się, że to nie jest coś co jest łatwym problemem. Ciężko jest ferować wyroki na zasadzie tak, nie, tędy lub tamtędy. Są problemy techniczne. Natomiast krótkie podsumowanie tych artykułów, które stworzyliśmy do tej pory, zarówno w kwestii tej ustawy związanej z towarzyszeniem Twoja Sprawa, jak i w tej chwili. z przywołanym przez Marcina ruchem Apple, jeśli chodzi o podejście do analizy treści na telefonach, iPhone'ach użytkowników, no to ja dochodzę pomału do wniosku, że nie da się pogodzić dwóch rzeczy. Wyrugowania całkowicie. materiałów, treści, z urządzeń i prywatności użytkownika.
To są dwa sprzeczne interesy i wydaje mi się, że ktoś musi poważnie odpowiedzieć sobie na pytanie, czy chce mieć tę prywatność, czy chce mieć poczucie, że nigdzie nie pojawi się dziecięca koreografia plus minus. no wiadomo, różnego rodzaju triki na obejście algorytmów wykrywających tego. . . Ale może zacznijmy od. . . Nazwijmy to obrazy. I tu dodam jeszcze jedną rzecz. Wydaje mi się, że dla tych, którzy będą nas oglądać na YouTubie, że już sam fakt, że my o tym mówimy, już samo wyczulanie pewnych algorytmów na tego typu słowa, czy treści, czy obrazy powoduje, że prawdopodobnie na YouTubie wszędzie, gdzie będzie padało słowo koreografia dziecięca, będziecie słyszeli piknięcia. Więc teraz możemy o tym mówić wiele razy, ale w postprodukcji, przynajmniej na YouTube'a, będziemy musieli to wypikać.
Przede wszystkim dlatego, że algorytmy są głupi i nie zawsze zrozumieją intencje, o jakich my rozmawiamy. W ogóle to ja mam takie wrażenie, jeśli mówimy o powtórce sprzed 10 lat, że politycy unijni bardzo lubią przedstawiać Internet jako miejsce, w którym perywilia jakby istnieje niemalże wyłącznie. To znaczy nawet jak patrzę na komunikat Komisji Europejskiej z listopada ubiegłego roku, który to komunikat zaczyna się taką magią liczb. 85 milionów obrazów i filmów zgłoszono w roku 2021. W zasadzie nie wiadomo gdzie zgłoszone, ja nie wiem czy to Europol znalazł czy gdzie to znaleziono. Właśnie, właśnie, magia liczb, liczb liczba 56. Później wzmianka o tym, że w pandemii COVID-19 było jeszcze gorzej, że 64% wzrostu raportów potwierdzonego o wykorzystywanie dzieci w 2021 roku.
Choć ja też zadaję sobie od razu pytanie, czy 64% wzrost zgłoszeń nie oznacza skuteczniejszego walczenia z tym zjawiskiem. niż było to do tej pory. I mam też wrażenie, że po pierwsze nie wiemy o jak dużym zjawisku mówimy tak naprawdę i druga rzecz, nie mówimy o zjawisku, które zachodzi tylko online. Korci mnie teraz, żeby zrobić bardzo głupi żart, ale dobra, powstrzymał się przed tym. Natomiast kolejna sprawa, czyli nie jest to problem stricte internetowy. A to co Ty wspomniałeś Piotrek, że jakby nie patrzeć musimy wyrysować jakieś granice między prywatnością a tym co chcemy zrobić żeby problem zwalczyć, no to zauważmy, że rzeczywiście w świecie offline te granice tak jakby są. Czyli na przykład gdyby ktoś zaproponował coś takiego.
Wprowadźmy prawo, które pozwala policji zrobić niezapowiedzianą kontrolę w domu, na zasadzie wpadamy i sprawdzamy co masz, no bo a nóż się okaże, że masz materiały p******e w domu, prawda? I teraz gdybyśmy wprowadzili takie niezapowiedziane kontrole domów przez policję, to każdy by powiedział, no nie, no mówicie o prawie, które poważnie zagraża prywatności. Mało tego, ja bym powiedział, no to nie jest tak. w czym problem nie tylko byśmy znaleźli być może u kogoś materiały pedofilskie, ale może krzaczki rosnące, konop i inne rzeczy. Świetny pomysł, róbmy regularne kontrole w domach, niezapowiedziane. No i właśnie każdy z nas czuje, że w świecie offline jest ta granica, której przekroczyć nie można, natomiast w świecie online jest z tym problem. Natomiast wracając do tego, o czym mówił Kuba o wariantach technicznych, to ja myślę, że dobrym punktem do wyjścia o. . .
Do dyskusji o wariantach technicznych jest właśnie 5 wspomnianych wariantów, o których ja wspomniałem, wymienionych w dokumencie wyprodukowanym przez Unię Europejską. Popatrzmy tutaj. Mamy warianty od A do E. Wariant A ma obejmować praktyczne środki o charakterze nielegislacyjnym. Bla bla bla bla bla bla. Są to praktyczne środki nieskuteczności dowolnych przestępstw. Aha, dobra. Wariant B, może przejdźmy od razu tutaj. Ustanowienie wyraźnej podstawy prawnej dla dobrowolnego wykrywania niegodziwego traktowania dzieci, czyli żeby usługodawca taki jak Kuba mógł powiedzieć, ja chcę sam wykrywać, tak? I wtedy dostanę do tego narzędzia prawne, że mogę, mogę się zgłosić, będę wiedział z kim w tej sprawie współpracować. Następnie są warianty od C do E. Wariant C i D ma się opierać na tym, że nakładają na dostawców usługi już konkretne zobowiązania prawne. Dziękuję za uwagę.
dotyczące wykrywania niegodziwego traktowania dzieci, tak to określono. Wariant C zakłada, że na dostawców usług będzie nałożony obowiązek wykrywania znanych materiałów przedstawiających niegodziwe traktowanie. Czyli tu możemy sobie wyobrazić jakiegoś rodzaju technologię, która będzie sprawdzać, czy przechowywane gdzieś pliki mają np. sumy kontrolne czy cokolwiek podobnego do tego, co już jest znane. Ale kolejny wariant D. . . nakłada na dostawców usług obowiązek wykrywania nie tylko tych znanych materiałów, ale również takich, które prawdopodobnie nimi są. I tu już się robi dziwnie. Jest jeszcze wariant E. Ciekawe co wiecie o tym wariancie? Otóż to będzie wykrywanie także automatyczne przypadków nagabywania dzieci w celach seksualnych. I tutaj. . . to ja już zaczynam mieć obawy. To znaczy, naprawdę jak to przeczytałem, to zacząłem się zastanawiać, żebyśmy się rozumieli.
Ja nigdy nie nagabywałem dziecka, chyba w żadnym celu. Nic od dzieci nie chcę, ale zacząłem się zastanawiać, ile w życiu mogłem powiedzieć rzeczy, które mogłyby być tak odebrane, czy które mam na mailu. Martwi mnie teraz trochę surowa mina Piotrka w tym momencie, ale Piotrku zapewniam, nie nagabuję dzieci. Moja surowa mina wynika trochę z innej kwestii, mianowicie, że wspomniałeś o mailach czy o komunikacji i myślę, że zanim w ogóle zaczniemy rozważać te warianty, to warto chyba spojrzeć na tą sprawę w formie takiego dużego obrazka. Po co ktoś chce to wprowadzić? Świat się trochę zmienił na przestrzeni ostatnich lat. Komunikacja przez zwykłe telefony, podsłuchiwalna, nie mówiąc o telegrafie. czy zwykłe listy, no nierealna dzisiaj, przeszła do internetu. Maile, jak wiemy, no nie są szyfrowane.
Są szyfrowane w tranzycie, ale żaden problem dla służb, aby dostać się na skrzynkę i pozyskać treść korespondencji. Natomiast pojawiły się w ostatnich latach komunikatory szyfrowane. I te komunikatory szyfrowane stanowią bardzo duży problem w zwalczaniu przestępczości dla organów ścigania, bo są szyfrowane. I to jest właśnie problem, który ktoś chce rozwiązać. A jak go może rozwiązać? No wiadomo, powołując się na terroryzm, powołując się na dziecięcą poro. . . czy walkę z tymi zjawiskami, dla naszego wspólnego dobra, dla dobra twoich dzieci i tak dalej. My to słyszymy od lat w wielu różnych wydaniach. I ja chciałbym rzucić takie pytanie. założyć pewien problem. Czy jest możliwość naruszenia tego szyfrowania end to end w taki sposób, żeby można było wyłuskać tylko i wyłącznie treści powiedzmy o charakterze filskim.
Już zostawmy nareszcie to nagabywanie, skupmy się na przykład na samych, nie wiem, obrazach, tak? Jeśli to o to chodzi. Bo moim zdaniem jest to szalenie trudne, albo to albo prywatność, natomiast jeśli jakiekolwiek rozwiązania się wprowadzi, one mogą zostać wykorzystane do nadużyć w postaci po prostu monitoringu korespondencji, co moim zdaniem jest tak naprawdę kluczem samym w sobie. Ale wcielając się trochę w adwokata diabła, chciałbym też podkreślić bardzo kreatywne akcje organów ścigania. Przecież mieliśmy w historii co najmniej dwa komunikatory dedykowane na rynki przestępcze, za jednym z nich wprost stały służby, a drugi jego infrastruktura została przejęta i chociaż komunikator zapewniał szyfrowanie end to end, no to służby pozyskały możliwość wglądu w tą komunikację. Czyli krótko mówiąc, jak się włoży dużo wysiłku, jak się chce, no to można pozyskać komunikację cyberprzestępców.
Natomiast jak się nie ma tego wysiłku, nie ma tej możliwości, albo nie wiem, przestępcy korzystają nawet z tego Whatsappa, no to trochę ciężko jest zajrzeć w treść, no bo metadane wiadomo, tak, to można pozyskać, ale w treści. No i tu jest ten dysonans, który ja cały czas mam, jeśli my mówimy o jakiejkolwiek formie ochrony dzieci, czy szukanie jakichś struktur słownych, które tak jak wspomniałeś, sugerują na przykład nagabywanie. Ja tutaj widzę jeszcze jeden problem, bo można to wprowadzić albo dobrze, albo tak na zasadzie jak próbowano wprowadzić na przykład rejestron zakazany, czyli zablokujmy to na DNS-ie na przykład, nie? I teraz jakby wyglądało wprowadzenie tego o czym rozmawiamy w sposób taki dobry, w zrozumieniu skuteczny. Bo o prywatności nie ma co mówić, no po prostu ją stracimy. Tak to wygląda z mojej perspektywy.
ale wyobraźmy sobie, że ja chcę do Piotrka wysłać jakieś materiały, które nie są akurat tymi zakazanymi, ale o bananach na przykład. I teraz o co musimy zadbać tak naprawdę? Musimy zadbać o to, aby droga komunikacji między nami, która do tej pory jest tam szyfrowana SSL TLS, miała jakiegoś backdoora. No i w tym momencie możemy sobie to faktycznie podsłuchać. No ale co, jeżeli ja spakuję to zipem i ustawię hasło? No to się odezwiemy do pana zipa i powiemy, słuchaj, pan zip musi już wprowadzić ewentualnie jakiś backdoor do tego. To jest kolejna jakaś warstwa. No to umówię się z nim, że na komunikatorach będziemy rozmawiać. No i teraz komunikatory, znowu kolejna warstwa. No musimy mieć też warstwę podsłuchiwania. Warstwa transmisji np. między dostawcami internetu.
Tam też musi być jakaś warstwa podsłuchiwania. Dlaczego o tym wszystkim mówię? Dlatego, że tak jak Marcin powiedział, gdy mówimy o czymś takim, jak np. policja wchodzi ci do domu, no to to jest straszne, to jest na wielką skalę, prawda? Ale czasami ludzie, myślę, nie uświadamiają sobie, jak wiele rzeczy trzeba dotknąć, żeby wprowadzić to na skalę internetową. Tu nie chodzi o to tylko, że będą kontrolować nas, ale tu chodzi o to, na ilu warstwach trzeba poluzować te więzy bezpieczeństwa, o end-to-end encryption można zapomnieć, tak naprawdę. Trzeba to poluzować na wielu warstwach, żeby dało się to jakoś dobrze zabezpieczyć.
Ja też na to właśnie patrzę w ten sposób, że to jest po pierwsze albo nierealne, albo tragicznie niebezpieczne, bo w tym momencie to oznacza, że każda technologia szyfrująca tak naprawdę, albo utrudniająca namierzenie, musiałaby w kwestii istnieć, a tymczasem jak pozbyć się np. implementacji open source'owych, bo ile wielkim dostawcom można powiedzieć słuchajcie, takie macie obowiązki, weźcie to zaimplementujcie, to mam jakiś open source i sam sobie mogę skompilować np. coś. Przypomina się takie coś jak np. zabezpieczenie przedgenerowaniu profilów, załóżmy w tych generatywnych AI. Nie jesteś w stanie tego zrobić, ale możesz sobie ściągnąć załóżmy model lokalnie, zakomentować jedną linijkę i jesteś w stanie to zrobić. Ciekawe, że mówisz o AI, bo przed laty wprowadzono przepisy, zwrocono na to uwagę zarówno na poziomie unijnym, jak i naszym krajowym, które miały ograniczyć rozpowszechnianie materiałów przetworzonych lub wytworzonych.
Swojego czasu o tym dużo dyskutowano i to, co ciekawe, dyskutowano akurat w czasach, kiedy nie było tak dobrych narzędzi do tego celu, jak obecnie. bo również w Polskim Kodeksie Karlem, w tym artykule 220, jeśli dobrze pamiętam, mamy tam zapis, że rozpowszechnianie prawa dziecięcej, która pokazywałaby wizerunki wytworzone, to też jest przestępstwo. Natomiast tutaj niektóre osoby pytają, zaraz, zaraz, jeśli wytwarzamy tą treść, to nie ma ofiary. Ja oczywiście rozumiem argument, żebyśmy się dobrze rozumieli. Ja wiem, jaki argument stoi za tym, żeby nie tworzyć treści wytworzonych, bo w ten sposób możemy. . . Dajemy komuś złodziecko. No tak, dajemy komuś stymulant, który jest niezdrowy i co do tego się wszyscy zgodzimy. Oczywiście tu się pojawia kolejny przykład. Na jakiej podstawie stwierdzisz, że przedstawiony wizerunek przedstawia kogoś niepełnoletniego? Yyy. . . Tutaj znów można wejść w specyficzne dyskusje, czy np.
widoczne objawy dojrzewania. Nie, nie chcę w to wchodzić nawet. Ale mam wrażenie, że problem, który podniesiono kiedyś, tzn. jak traktować wizerunki wytworzone i przetworzone, teraz może się stać bardziej. . . aktualny jak nigdy, a ja mam wrażenie, że na istotne pytania nadal nie odpowiedziano, nawet jeśli powstały pewne ramy prawne, które niby to określają, a tak naprawdę nie do końca. Ja tu jeszcze do jednej rzeczy się wyszczepię. Jeśli chodzi o te warianty, które wspomniałeś, walki z tym zjawiskiem, jeden z wariantów przewiduje takie proaktywne wyszukiwanie czegoś, co jeszcze nie powstało. Czyli można powiedzieć szukanie tego wzorca. I teraz każdy powie, no to mamy przecież sztuczną inteligencję, no to zaprzęgniemy ją, użyjemy, będzie gotowe.
A jak powstanie ten model, który będzie to wykrywał? Zbierzemy sobie dużo pornograficznych treści z nieletnimi, nakarmimy ten model i kto to będzie obsługiwał, jak to będzie wyglądało? jak będzie się rozwijał ten model, jak będzie development. Podobne dylematy. Znaku zapytania. Wydaje mi się, że akurat te problemy zostały już rozwiązane, bo przecież jest baza chociażby obrazków, na podstawie której wykrywane są treści z wykorzystywaniem nieletnich i też tą bazę, ktoś się nią opiekuje. Wiemy, znamy pewnie wszyscy historię. moderatorów TikToka, innych mediów społecznościowych, gdzie ci ludzie są narażeni na bardzo brutalne treści, nie tylko z wizerunkiem nieletnich, ale generalnie straszne rzeczy, które wpływają na ich psychikę, miejmy nadzieję, bo jak nie wpływają, to znaczy, że coś z tymi ludźmi jest mimo wszystko nie tak. Ale ktoś musi tę pracę. . .
wykonywać, chociażby ze względu na to, co powiedziałaś wcześniej, że algorytmy może nie są doskonałe. Ale ja bym jeszcze wrócił na chwilę i dodał do tego, co Kuba powiedziałaś, jedną rzecz, bo te wszystkie backdory w oprogramowaniu, to podsłuchiwanie ruchu, to jest coś, co można próbować zrobić bez dotykania użytkowników końcowych. No ale przecież jest jeszcze rynek dotykania użytkowników końcowych, czyli eksploatowania im telefonów, smartfonów. słynny Pegasus, chociaż on ma jakby inne zastosowanie, ale generalnie targetowanie urządzeń końcowych to też jest pewna metoda i służby mają do tego narzędzia. No właśnie, tylko pytanie czy będą te narzędzia wykorzystywały w takich, no tu słowo błaha nie pasuje, ale sprawach, no jednak myślę o przestępstwach bardziej masowych i popełnianych przez osoby, które którymi często mówiąc po prostu służby się nie interesują, bo w cudzysłowie mają ważniejsze rzeczy na głowie.
Tutaj myślę, że można by tak naprawdę zrobić to w sposób poniekąd legalny, to znaczy zaoferować jakieś benefity użytkownikowi, typu jeśli zainstalujesz to, to coś tam zyskujesz, nie wiem. To jest coś takiego jak na przykład skanowanie treści na iCloud'zie. Dostajesz darmowy pakiet iCloud'a, uploadujesz sobie tam wszystkie swoje ustawienia, jakieś zdjęcia i inne takie rzeczy. No i teraz po drugiej stronie siedzi sobie Apple, który jest w stanie wykryć, że o, uploadowałeś pornografię z Jędzą na przykład. Więc pytanie w mi, czy nie dałoby się tego na większą skalę zrobić. i też tak, żeby użytkownik myślał, że w zasadzie to jest benefit dla niego. Więc myślę, że jest to wykonywalne nawet za, może nie w pełni świadomą, ale za pewnym przyzwoleniem użytkownika, może nie za pełną zgodą.
No ale już to skanowanie treści mnie razi, bo to jest naruszenie podstawowego prawa do prywatności. Jak założymy, że są osoby typu lekarze, przecież nie wiem, czy nie opisywaliśmy przypadkiem tego ok, jeśli nie, to na pewno był. . . głośny i znany, a na szkoleniach na pewno go poruszamy, czyli lekarza, który otrzymał fotografię od ojca chyba, który zrobił zdjęcia genitaliów dziecka, dlatego że dziecko miało pewną chorobę i tutaj następowała ta nazwijmy to telekonsultacja. Problem był tylko taki, że te zdjęcia były przesyłane przez ojca ze skrzynki na Gmailu. I właśnie te mechanizmy, no bo Gmail, Google Drive, podobnie jak wspomniałeś iCloud, mogą być skanowane pod tym kątem. zauważyły, że są to treści o charakterze takim a nie innym i nastąpiła blokada tego konta.
I teraz okazuje się, że jeśli dobrze pamiętam, to procedura jest taka, że to nawet nie moderatorzy Google, tylko zewnętrzne jakieś stowarzyszenie, które jest dedykowane tego typu sprawom obsługuje te case'y, ale konto jest blokowane. Gościu stracił dostęp do wszystkiego, ba, z automatu leci zgłoszenie na policję. W sensie to jest takie zgłoszenie na zasadzie. My tu coś wykryliśmy, nie wiemy czy on jest winny czy niewinny, jest to zablokowane, natomiast wy, organy ścigania, teraz tę sprawę pociągnijcie dalej. I gościu był wzywany na przesłuchania. Udało mu się wytłumaczyć, bo sprawa była taka sensowna, można powiedzieć, tłumacząca dlaczego takie treści się pojawiły. I paradoksalnie z tego co pamiętam, to co mnie tak najbardziej zdziwiło w tej historii, to to, że Google nie było w stanie odblokować tego konta, ponieważ za takie zablokowanie jakby nie ma procedury, która pozwala konto przywrócić.
I jemu pomogła policja, a mianowicie te logi, które Google dostarczyło, czyli kopia jego skrzynki w trochę innym formacie niż taki wygląd live, gdzieś tam wydrukowana, była przez policjantów przekazywana tej osobie właśnie po to, żeby on mógł odszukać dane swoich kontrahentów, odszukać dostępy czy jakieś inne informacje, które z punktu widzenia jego biznesu były kluczowe. Tu już abstrahuję od tego, że no nie powinno się na Gmailu prowadzić swojej firmy, powinno się też zadbać o kopię bezpieczeństwa i zrobić wiele innych rzeczy, których normalni, standardowi ludzie no po prostu nie robią, tak, ale No ale mam takie poczucie wysokiej niesprawiedliwości, kiedy słyszę o takich sytuacjach albo kiedy słyszę propozycje, że no to skanujmy wszystko, bo jeśli ktoś nie robi nic złego, to nie ma się czego obawiać.
Teraz niektórzy politycy Unii nie wiesz, co by Ci odpowiedzieli na to, co powiedziałeś. Oni by powiedzieli tak, popatrz, Gmail już skanuje, Microsoft skanuje, zresztą Microsoft miał duży wpływ na rozwój tej technologii. A Apple nie skanuje, wycofał się. Czekaj, czekaj. No więc w tych dzikich Stanach Zjednoczonych ludzie to robią, firmy to robią jak chcą, a my to wprowadzimy prawnie i będzie odwołanie, będziesz mógł napisać jakieś pismo do jakiegoś urzędu, że cię źle zablokowali, być może ktoś przemyśli procedurę. przywrócenia Twoich danych, być może nawet ktoś pomyśli nad odszkodowaniem dla Ciebie, jeśli poniosłeś. . . Coś powie Ci na Marcino? Też mi się wydaje, że Marcin wyleciał. Powiedział o jedno słowo za dużo. Już filtry go złapały. Tak je bronił i popatrz. To absolutnie zostaje w odcinku, żeby pokazać jak to się kończy.
Tylko mikrofon po nim został. Tak, to już chyba mu wjechali na chatę. No i to dobry czas reakcji. Dobra, pytanie Piotrka. Czy będąc świadomym tego jak to tam działa, czy byłbym gotowy na przeskanowanie swojego sprzętu? Tak, rozumiem. O to chodzi w tym pytaniu. Ja bym powiedział tak, no dla mnie to jest naruszenie prywatności, to znaczy po prostu sam dobrowolnie nie wyraziłbym zgody na coś takiego jak skanowanie. Wiadomo, że nic tam nie zostanie znalezione wrażliwego, ale to jest takie przyzwolenie, przyklepanie po prostu, że tak, zgadzam się na taką procedurę i tak naprawdę nie mam nic przeciwko. No mam wiele przeciwko, bo wiem z czym to się wiąże i jak wiele rzeczy tu musi być naruszonych, żeby to zrealizować.
Więc no nie, tak samo jak bym nie wyraził zgody, czy możemy panu przefukać dom. Nie, po prostu nie. Pewna granica jaka prywatności musi tutaj być. Okej, no to ja dodam tylko tyle, że owszem, argumentem osób, które chcą wprowadzić tą legislację będzie to, że wszystko będzie uregulowane i że będziemy mieli safeguards wbudowany w te wszystkie przepisy. Ja mam wrażenie osobiście, że Komisja Europejska już tak z 10 lat temu się nauczyła zawsze, że trzeba ten argument również podawać. Na razie ktoś to robi na dziko, a my to uregulujemy. Powiem od razu, że mnie ten argument nie przekonuje. W tym rozporządzeniu jeszcze jest jedna rzecz, która dla mnie jest ciekawa, to znaczy jest coś takiego jak nakaz usunięcia materiałów.
I tak pomyślałem, czy to realnie musi być wprowadzane jako takie oddzielne prawo, bo tak naprawdę mogą mnie zmusić prawnie do usunięcia absolutnie czego tylko zechcą, a to jest jedyna rzecz, która tak jakby nie ingeruje bezpośrednio w prywatność moim zdaniem. To znaczy jeśli namierzono z zewnątrz te materiały, załóżmy mam serwis społecznościowy i ktoś zobaczył, że takie materiały są rozpowszechniane, zgłosi to do mnie, to ja muszę zrobić kilka rzeczy, to znaczy jako taki hostingodawca muszę po pierwsze te materiały usunąć i zabezpieczyć, a po drugie wykonać pełną procedurę zgłoszenia tego. I tu pojawiają się pewne takie haczyki, bo nie wiem czy tam czytałeś Marcin co musi być w tej procedurze i ja muszę świetnie znać swoich klientów.
No i teraz jeżeli ja sprzedaję coś to świetnie znam ich, mam na faktu we ich dane, ale w momencie jak to jest jakiś otwarty serwis społecznościowy gdzie każdy może hostować obrazki, jak ja mam wywiązać się na przykład z takiego prawa? Właśnie tak jak robi to Elon Musk czyli wprowadzając opłatę dolara za 2 roczne korzystanie z Twittera dzięki czemu to jest najtańsza procedura KYC jaka może istnieć. Ale wiesz co to jest nie taki głupi pomysł tak naprawdę to znaczy jedna wada jest taka To pociąga za sobą kolejne kroki, czyli w każdym serwisie, gdzie chcesz coś zrobić, musisz mieć konto załowone, musisz dzielić się swoimi danymi. No i tu mamy takie rozsiewanie danych osobowych, gdzie tylko popadnie i wszędzie jeszcze dolarka, żeby się zweryfikować.
No i wracamy do tego, o czym mówiłem, że albo prywatność. Albo ta idylla, łuda bym powiedział raczej, tego, że żyjemy w bezpiecznym świecie, w którym na urządzeniach użytkowników nie ma treści niedozwolonych, mówiąc szerzej niż tylko temat, o którym dzisiaj dyskutujemy. A ja się zastanawiam, na ile ta idylla, o której mówimy, jest wymysłem nas dziaders. Bo, a tak tu Was zaskoczyłem może, tak sobie myślę, że standardy w sieci się zmieniają. To znaczy o ile pamiętam, że powiedzieć na przykład około roku 2005, że będziesz płacił za gazetę online, to było. . . ryzykować życiem w niektórych środowiskach. To po prostu było niewiarygodne. Teraz mam wrażenie, z paywallami się w pewien sposób oswoiliśmy. Z pewnym bólem muszę stwierdzić, że gdy np.
Donald Tusk zaprezentował pomysł rejestru Stron i Usług Niedozwolonych i przedstawiano to wtedy jako olbrzymie zagrożenie dla demokracji i politycy, którzy później w rządzie PiS-u wprowadzali podobny rejestr, wcześniej krzyczeli, że nie, że mamy duże zagrożenie dla wolności słowa. Kto by będzie tak krzyczał, dopóki jego maile nie wyciekną i nie będzie chciał zablokować strony, która te maile publikuje? Nie wskazując palcem o kogo mogłoby chodzić. Natomiast standardy też trochę się zmieniają.
Ja się zawsze zastanawiam, czy to jest tak, że wielokrotne przywracanie tego samego pomysłu ma sprawić, że on w końcu przejdzie? Czy my się na to uniewrażliwiamy, jeśli jest takie słowo, i po prostu zaczynamy dopuszczać coś, bo już nam szkoda sił na to, żeby się denerwować? Czy może faktycznie standardy się zmieniają i my sami zaczynamy się godzić z tym, że po prostu tej prywatności będzie mniej? Pytanie być może filozoficzne, ale jednak może na miejscu. Chyba wszystko razem wzięte, bo też zauważam tak to co mówisz, takie wałkowanie tematu powoduje, że się z nim oswajamy. To znaczy ja na przykład z perspektywy czasu teraz myślę sobie, że rejestr zakazanych to taki hardcore wielki nie był, nie? Tak po wielu, wielu, wielu latach. A dlaczego? No bo planują wprowadzić coś gorszego, prawda? I ja, tak jak to nazwałeś, no. . .
Uodporniłem się na to, sprawiło to tak, że przyjmuję te wspomnienia z przeszłości, które chciałem od rzeczywistości oprowadzić, jako takie stosunkowo lekkie. I teraz, co się może zdarzyć? Gdyby cofnięto tę decyzję i wrócono do tego poprzedniego pomysłu? to pytanie jak ja bym zareagował, czy na zasadzie uff, jak to dobrze, że taki mały drobiazg chcą wprowadzić, jak rejestr zakazanych na przykład, nie? To dalej jest złe, to nadal jest coś niedopuszczalnego, no ale ta perspektywa może się zmieniać w czasie. Zastanawiam się, czy właśnie to nie będzie takim właśnie, tą metodą okna, to znaczy na początku próbujemy coś bardzo drastycznego wprowadzić, a potem trochę się cofnąć krok do tyłu i ci ludzie to będą akceptować. A z trzeciej strony, co na przykład zmieniła blokada stron hazardowych? Bo ja mam wrażenie, że. . . rynek hazardu internetowego.
Ja go obserwowałem bardzo pobieżnie, ale mam wrażenie, że on został uporządkowany np. wprowadzeniem lotka przez internet i po prostu wprowadzeniem większej ilości ofert grania legalnie. Ja mam pewien problem, bo nie porównujmy brodady internetowe, którą można obejść i która nie dotyczy bezpośrednio naszych danych i naszej prywatności z czymś co diametralnie narusza. I to jakby pozwala każdemu zajrzeć we wszystkie treści, które produkujemy z każdą osobą, z którą rozmawiamy. Porównujemy to dlatego, że był rejestr Stronnich Usług Niedozwolonych i ludzie krzyczeli o zamordyzm, tu nas wszystkich rozjadą, jest wielkie zagrożenie. A teraz mamy taką propozycję i ja mam wrażenie, że kilku nerdów posłucha o tym w podcaście Niebezpiecznika. Owszem, było o tym w mediach głównego nurtu pomiędzy innymi tematami. Ale przynajmniej na razie wielkiego oburzenia nie ma.
Ja też wiem, że zwykle takie propozycje to jest ostatnia prosta, kiedy się to oburzenie może pojawić albo nie. ale też z moich takich wieloletnich obserwacji wynika, że ono się pojawi albo nie. Zarówno może być tak, że nagle będziemy mieli dosłownie na ostatnich etapach legislacyjnych będziemy mieli wielkie oburzenie, albo nikt tego nie zauważy, przejdzie bokiem, będzie jakiś inny temat i było minęło, mamy już wprowadzone. Pewnie. To porównanie moje było wtedy bardziej ze względów psychologicznych, tak powiem, ale teraz ten temat wchodzi, a jednocześnie mamy całą, nazwijmy, YouTube'ową aferę, prawda? Czyli tak naprawdę wszyscy krzyczą teraz wspólnie musimy coś z tym zrobić, musimy to blokować. Wchodzi Unia cała na biało i mówi mam rozwiązanie.
No to jest właśnie to na co wszyscy czekali tak naprawdę w takim złudzeniu bym powiedział, no bo tak jak wspomniałem wcześniej to pociąga za sobą dużo negatywnych skutków no ale aktualnie się o tym mówi, to jest gorący temat, to trzeba wprowadzić, no i teraz Unia próbuje to wprowadzić. Kto teraz jest w stanie? Ja się nie zgadzam. Oczywiście, tylko teraz jest na zasadzie, temat jakby wraca, że trzeba to wprowadzić w życie. Myślę, że timing jest tutaj całkiem niezły. Może to być wypadek, zupełny wypadek tak naprawdę, ale festowy ten wypadek się zdarza, no to może to być bardziej z otwartymi rękami przyjęte. Uświadomiłeś mi właśnie, że planowaliśmy jeszcze, kiedy byliśmy na etapie. . . Myślenia o poprzednim odcinku podcastu, zastanawialiśmy się czy tykać w ogóle jakkolwiek temat afery youtubowej.
Nie ma chyba sensu poświęcać temu całego odcinka, ale ja też uważam, nie wiem czy się ze mną zgodzicie, że to nie jest problem internetowy jako taki. Nie, zdecydowanie nie. Weź pod uwagę, że to rozpowszechnianie, które podlinkowałeś, i podlinkujemy tutaj pod tym, ono nie tylko skupia się na rozpowszechnianiu treści, ale też właśnie na zjawiskach, które w ramach tej afery się uwydatniły. Rozmowa z nieletnimi, namawianie pewnego rodzaju fantazy, to wszystko też jest tam w ramach rozpowszechniania, że to ma być wykrywane. I tu wracamy do tego, co Piotrek powiedział, to znaczy jak to wykrywać, jak podsłuchiwać te rozmowy na komunikatorach, jak to technicznie wygląda, bo to jest bardzo ważne. Może ktoś powie, no to niech wykrywa tylko zdjęcia związane z pornografią, albo tylko rozmowy związane z czymś tam. Nie da się tego zrobić, trzeba złapać kontekst.
Ja właśnie znowu mam wrażenie, że to są dwa różne problemy czy zjawiska i wrzuca się do jednego worka pod tytułem bezpieczeństwo dzieci, tylko to bezpieczeństwo dzieci to z jednej strony jest to o czym rozmawiamy my, co nas najbardziej interesuje, czyli te techniczne aspekty wykrywania treści z naruszeniem prywatności użytkowników na ich urządzeniach, monitoringu, podsłuchu, pekdurowania, rozwiązań technicznych, a z drugiej strony mamy. . . Nieporadnych rodziców, którzy nie opiekują się swoimi dziećmi, nie potrafią im zablokować dostępu do treści pato-youtuberów. To są dwa różne tematy. Ten drugi, związany z rodzicami, można bardzo prosto rozwiązać, edukując rodziców, są do tego narzędzia. Trzeba mieć pewną więź nawiązaną z dzieckiem.
Treści pato możemy wyeliminować, bo nikt się nie kryje z emanowaniem tymi treściami, tylko wszyscy mają na to za przeproszeniem wyjebane i pozwalają tym ludziom publikować takie treści. I to jest jeden problem, no zły problem, ale do rozwiązania bez naruszenia naszej prywatności. Nas wszystkich. Ale to jest drugi problem. Myślę, że zajęcie się tym drastycznie by też poprawiło sytuację związaną właśnie z takim szerzeniem tej patologii. To znaczy zaczęcie od tego, co widać i od tego, co nie narusza tej prywatności. Ale ktoś jednymi. . . emocjami związanymi z tym jednym wydarzeniem, problemem, próbuje elewarować działania na tym drugim problemie. Bo sprowadza się to do dyskusji, no chcecie, żeby dzieci były bezpieczne? Tak. No to musimy podsłuchiwać wasze komunikatory, dziękuję.
Ja tu jeszcze poruszę jedną rzecz, bo podzielmy może świat na dwie części. Jedna to jest ta, której będzie dotyczyć ta zmiana, a druga to są perspektywy. bo to nie są to same, w sensie to jedno w drugim się nie zawiera. Jeżeli mamy to coś, co chce wprowadzić Komisja Europejska, czyli podsłuchiwanie rozmów, to tak naprawdę wchłonie wszystkich normalnych, szarych ludzi Kowalskich. A ludzie, którzy wymieniają się tego rodzaju treściami, oni nie używają publicznych hostingów, publicznych komunikatorów, oni nie używają publicznego softu, tylko własne hostingi, własne jakieś ukryte usługi w towe, tego typu rzeczy. Nawet ci ludzie, jeżeli nie mają wiedzy technologicznej, to oni mają po prostu tutoriale jak coś takiego zrobić. No właśnie, ale jakoś muszą wyszukać te tutoriale.
Ja zakładam, że jest jakiś schemat, wzór, gdzie z osoby, która ma takie, a nie inne zamiłowania, i chce dotrzeć do innych osób, gdzieś wiesz, musisz jakieś ślady zostawić. I ja myślę, że jakby ideą jest tutaj wyłapanie tych właśnie kroków, które wykonuje taka osoba, zanim stanie się nazwijmy tym profesjonalnym jakkolwiek by to nie zabrzmiało. I wtedy taka. . . masowa inwigilacja może pomóc te osoby wyłuskać. Ale z drugiej strony znowu, masową inwigilację w trochę starszym świecie, gdzie prościej było to robić, mieliśmy, Snowden to ujawnił, pokazał, po atakach terrorystycznych na World Trade Center. I ileż to z tego światowego, globalnego podsłuchiwania, masowego zbierania danych i wyszukiwania w nim różnych skrawków, tzw. selektorów, udało się zapobiec jakimś zamachom. Ja nie chcę tutaj skłamać, ale te raporty, które widziałem, które były publikowane, wskazywały na bardzo dużą niewydajność tych mechanizmów.
Właśnie, że tych danych było tak dużo, był do nich dostęp i po fakcie można było znaleźć jakieś ślady, które pokazywały, pokazywały co dana osoba robiła, ale właśnie po fakcie. Czyli wcale nie eliminujemy przyczyn, tylko tak naprawdę dowiadujemy się trochę więcej o skutkach. No ale my byśmy bardzo chcieli, żeby tych skutków nie było. Ja tu widzę jeszcze jeden problem. Wspomniałeś, że można byłoby ewentualnie przeciwdziałać. Wyobraźmy sobie np. Marcina. Marcin wyszukuje w Google informacje typu jak pozostać anonimowym, jak połączyć się z siecią Tor, czy jak używać Wiena. No tak i teraz szuka takich informacji. I teraz co się dzieje dalej? Dalej w ruchu internetowym Marcina znajdujemy połączenie z Torem. Udało mu się. I koniec. Urwana ścieżka. Pytanie czy zrobić mu najazd na chatę czy nie.
Ja ci powiem nawet gorszą rzecz na Marcina. Marcin dostaje mail. To się nagrywa. Wiem. Marcin dostaje maila od jakiegoś czytelnika, który na przykład znalazł treści nielegalne i wskazuje je, bo nie chce ich z wielu powodów zrozumiałych dla mnie raportować bezpośrednio do organów ścigania. Mamy masę takich przypadków w redakcji. No i znowu weryfikacja tych treści wymaga po pierwsze sprawdzenia, czy to naprawdę ktoś sobie czegoś nie wymyślił, co tam jest, czyli siłą rzeczy trzeba się przynajmniej częściowo z jakimiś treściami zapoznać. Dwa. po wykładach, które robiliśmy, ja miałem taki przypadek, przychodzi do mnie typ i mówi, masz tu pendrive'a, na tym pendrive'ie są enigmatycznie, powiem, straszne rzeczy. No i ja teraz tego pendrive'a dostaję, mogę go od razu do kosza wyrzucić, raczej nie przy tym człowieku, bo to trochę słabe.
Z drugiej strony może tam są straszne rzeczy, nie aż takie straszne, fajnie byłoby to zweryfikować. Ja potrafię technicznie to zrobić tak, żeby mi się krzywda nie stała, ale załóżmy, że ja nie wiem, wracam, zostawiam to u nas w redakcji, no i później przy okazji tego, co Marcin robił, odwiedza nas ktoś, bo zostały jakieś ślady w internecie, że zaglądaliśmy na Tor, a Tor jest teraz nielegalny. I znajduję tego pendrive'a. a tam nie daj Boże rzeczywiście są jakieś rzeczy, do których ja jeszcze nie doszedłem i z obrzydzeniem nie zmieniłem tego w niszczarce. Pewnie dałoby się wytłumaczyć podobnie jak ten człowiek, który lekarzowi przesyłał genitalia swojego dziecka. Tylko znowu mam poczucie, że nie tak powinno to wyglądać.
Tak, ale to znowu pociąga za sobą tak wiele zmian w prawie, typu kto może być zwolniony z tego, na jakich warunkach, jak to udokumentować, jak to zweryfikować. No bo jeżeli będą jakieś wyłączenia na przykład z tego, no to pytanie czy taki się nie może wyłączyć na przykład, nie? Zresztą jedną rzeczą zastanawiam, popatrz. Regulacje, które mają objąć dostawców usług internetowych, będą obejmować tych, którzy jakkolwiek przejmują się jurysdykcją. Tak się zastanawiam. Zakładam sobie e-mail na jakimś takim rocznym. . . No gdzieś tam, nie wiem jaki jest teraz status SESZELI i ich współpracy z Komisją Europejską, ale gdzieś daleko zakładam sobie skrzynkę mailową, zbieram serię takich materiałów i wysyłam to Kubie i Piotrkowi w ramach zemsty za to, że ja byłem głównym przykładem w podcasie.
No to trafi na wasze skrzynki, czyli zostanie wykryte u dostawcy usług waszego. Dobrze myślę? I w sumie to też należałoby brać pod uwagę możliwość prowokacji zazwyczajnie. Nie jest to taki do końca nierealny scenariów, spotkałem się z tym. Po pierwsze, a po drugie chyba na Facebooku był taki łańcuszek, gdzie na Messengerze się wysyłało komuś jakąś fotkę niewinną, ale tam był właśnie błąd fingerprintingu, nie wiem, jakieś zdjęcie z plaży czy coś takiego. Iką to było tej osobie panowane? No spoko. Jak najbardziej da się to zrobić i jak najbardziej może to być używane właśnie do wyrobienia.
I teraz pytanie brzmi, czy odbiorca powinien za to odpowiadać, bo jakby nie patrzeć, zapoznał się z treścią, jakby nie patrzeć, jest to w jego cashu, w razie perfukania komputera coś zostaje w ślad, jest informacja, że to jest z jego kontem powiązane. Jest to gigantyczny problem moim zdaniem. Czy na pewno da się w razie postępowania poinformować o tym, że jest to jego kont? Udowodnij, czy wiesz, oglądałeś jakąś treść raz, żeby sprawdzić, czy może zaglądałeś do tego wielokrotnie, albo chociaż. . . To jest ciężko udowodnić, bo dobra, wczoraj widzisz strafne rzeczy, jakieś tam masakry na przykład, nie? I teraz chciałem to pokazać Piotrkowi, otworzyłem drugi raz. Piotrek mówi, wiesz, to pokaż to Marcinowi.
To włączyłem trzeci raz, no i teraz jest informacja, no, panie Mrugalski, pan trzy razy w ciągu trzech dni tutaj się zapoznawał z treścią, nie? No i teraz pytanie brzmi, no co powiem, kolegą chciałem pokazać. A jeszcze dałoby się na Twoim Facebooku znaleźć informację o tym, że kupowałeś siekierę, to na reklamach Ci się wyświetliły zaznaczone jej warki, także no. . . Nie sądzę, że znajdziemy jakieś rozwiązanie, nawet uważam, że jakikolwiek kompromis byłby tutaj bardzo nie na miejscu, więc pytanie, czy widzicie jakiekolwiek alternatywny? podejście do tego tematu. Możemy robić tak jak teraz, czy nic nie robić, nie regulować tego, liczyć na to, że się organy ścigania swoimi tradycyjnymi metodami, jakimiś, nie wiem, styczkami osobowymi, ewentualnie przejmowaniem infrastruktury komunikatorów, to biorą do dupy ludziom, którzy mają nierówno pod sufitem i ich wyeliminują ze społeczeństwa.
A może po prostu musimy się wszyscy pogodzić, jak to Marcin powiedział, jako dziadersi. Z tym, że tej prywatności już nie będzie nigdy więcej. Moim zdaniem trzeba zacząć od czegoś prostszego, czyli tak jak powiedziałeś, walka z patologią, jakieś łatwe raportowanie tego typu sytuacji, bo na przykład teraz jest taki problem, że skuteczne zaraportowanie tego nie długiej sieci społecznościowej, a normalnej, prywatnej firmie, jest skomplikowane. Znaczy, zdawało mi się, że chciałem zaraportować materiały nielegalne, nie akurat w tym temacie, o którym rozmawiamy, tylko po prostu nielegalne materiały Wiedziałem, że są rozpowszechniane na pewnym portalu. No i odpowiedź dostałem taką, że są być może, ale my nie mamy prawa zaglądać do prywatnych wiadomości, więc jak są, no to trudno. Są, nie? A ja bym chciał, jeżeli mam dowód, mam screenshoty na przykład, że takie coś jest rozpowszechniane, to żeby był na przykład obowiązek jakiś prawny, typu zablokowanie urządzenia.
Z screenshotu usunęli drut. Ale jeżeli jest jakikolwiek dowód taki na zasadzie, że można zerknąć mu do środka tej skrzynki, że tam coś takiego jest, albo przynajmniej po logach, gdzie zgadza się np. ilość przesłanych danych. Na tej zasadzie widać, że z jednego konta wychodzi np. milion obrazków do różnych wątkowników. to nie jest na przykład jakiś wskaźnik typu może zobaczcie co tam jest w środku. Jeżeli jest przesłanka ku temu to może jakaś reakcja jakakolwiek, ale żeby była przesłanka, a nie takie coś jak w tym momencie jest na przykład w tym rozporządzeniu. Proaktywnie, profilaktycznie udostępnić metody, jakieś tego typu rzeczy, no tego nie widzę.
Już nawet to raportowanie na zgłoszenie to też jest pewnego rodzaju zachwianie prywatności, bo co jeśli zgłoszenie jest fałszywe? Albo co jeżeli jedynym dowodem jest właśnie screenshot? Dlaczego miałbym nie zgłosić Piotrka, że być może on tam ma jakieś fajne zdjęcia? To może zmierzając do końca, ja zupełnie odwrócę kota ogonem i zadam wam takie pytanie. Czy w ogóle wyobrażacie sobie świat internet bez prywatności? To zależy co rozumiesz przez prywatność. Jak definiujesz prywatność? Co to jest według ciebie? W każdej chwili ktoś może ci przejrzeć całą komunikację jaką masz i wykorzystać w dowolnym celu. Znaczy masz świadomość tego, że ona będzie na cudzych, niekontrolowanych przez ciebie serwerach. Cała twoja komunikacja, prywatne zdjęcia, rozmowy z rodziną, ze znajomymi, z klientami.
to ja sobie tego nie wyobrażam na dwóch płaszczyznach, to znaczy na płaszczyźnie takie po prostu człowieka, to jest naruszenie moich praw, więc nie jestem w stanie sobie wyobrazić, że do czegoś takiego przechodzimy i to jest codzienność oraz mam problem z wyobrażeniem sobie tego na warstwie technologicznej, to znaczy jak tragicznie musiałby zmienić się cały świat, bo to nie jest zmiana jednej usługi, to nie jest na przykład zbagdorowanie jednego aplikacji, to jest zmiana wszystkiego, co nas otacza, więc też nie wyobrażam sobie, że nagle wszystkie firmy z całego świata mówią ok, idziemy w to. Więc na tych dwóch płaszczyznach dla mnie to jest niewyobrażalne. A z drugiej strony kiedyś miałem taką dyskusję z uczestnikiem jednego z naszych szkoleń, który zwrócił mi uwagę na to, że tak, znasz technologię, z której korzystasz? Okej, znam.
Sam kompilowałeś, sam pisałeś. Wiesz, my ufamy bardzo wielu podmiotom. Ufamy, w sensie musimy ufać. Ufam, że mój system operacyjny nie został zbagdorowany. Ufam, że nie został zbagdorowany serwis internetowy, przez który przesyłam swoje dane, że dostawcy serwerów wypełniają pewne obowiązki dotyczące bezpieczeństwa tych danych. Wszyscy pamiętamy, myślę taką sytuację. To była moim zdaniem bardzo poucząca sytuacja, kiedy padła jedna z polskich firm hostingowych, która była uważana za taką całkiem solidną, normalną firmę hostingową i nagle się okazało, że tam nie było backupów za bardzo i masa ludzi potraciła swoje dane. Być może pamiętacie i wiecie o co chodzi. Nie chcę tam wymieniać nazwy, bo moim zdaniem ogólnie tragiczna historia. Natomiast. . .
Rzeczywiście, gdyby tak na to spojrzeć, to pytanie, czy my nie powinniśmy być gotowi na tego typu internet, nawet jeśli on jeszcze nie istnieje. Bo rzeczywiście, jak pomyśleć, jakie rzeczy my powierzamy tym wszystkim technologiom i spojrzeć na nasz faktyczny poziom kontroli i znajomości tych technologii, to jest w tym pewne szaleństwo. Pewnie. Tylko tutaj bym się do jednej rzeczy przyczepił, bo mieć nadzieję, że jesteśmy bezpieczni. . . a mieć pewność, że jesteśmy zagrożeni, to są takie dwie skrajności. Jak ktoś mi ogólnie powie tak, że tak, twoja strzynka jest kontrolowana, na tej zasadzie, no to ja wiem, że jest kontrolowana i wtedy już uważam na przykład co przesyłam, zmieniam formę komunikacji, szyfruję na tej zasadzie.
A jeżeli biorę pod uwagę, że ewentualnie służby mogą czasami kontrolować, gdy mają ku temu jakieś powody, no to stwierdzam sobie, chyba nie mają powodów, na razie się im nie naraziłem przykładowo. Jest różnica między boję się czegoś, a jestem pewny, że to się stanie. I ta druga sytuacja. To jest to, co chcą nam zaproponować, a dokładnie mówiąc wprowadzić, nie zaproponować. Propozycja już jest i mamy nadzieję, że ktoś w Komisji Europejskiej przetłumaczy nasz podcast na jeden z roboczych języków UE i puści to decydentom jako materiał do przemyśleń. Już w kolejnym odcinku zajmiemy się nową walutą cyfrowego euro, która ma funkcjonować równolegle do gotówki. A swoją drogą, skoro zmierzamy do końca, to w temacie po**** może zakończmy czymś pozytywnym i z dziedziny OSINTu.
Jeśli chcecie pomóc organom ścigania, W ściganiu pedofilii możecie odwiedzić stronę Trace an Object prowadzoną przez Europol. Tam są fragmenty produktów wycięte ze zdjęć polskich i gdybyście byli w stanie wskazać kraj, gdzie np. dana koszulka czy dany mebel jest produkowany. albo bylibyście w stanie wskazać np. informację o użytkowniku spodziewanym tego produktu, możecie pomóc. Do tej pory ta inicjatywa doprowadziła do udzielenia konkretnej pomocy w kilkunastu sprawach przesłania do służb kilku, chyba dwudziestu kilku tysięcy tipów, które mogły być w różny sposób pomocne, więc gdybyście chcieli w jakiś sposób dołożyć cegiełkę do tego, to można. Pamiętam też, że podobną stronę prowadzi chyba Policja Australijska i na pewno na stronie Trace and Object jest link do tej drugiej inicjatywy Policji Australijskiej.
A ja bym jeszcze dodał mimo wszystko, że bardzo zgadzam się z tym co powiedział Piotrek, to znaczy moim zdaniem problem p**li zawsze będzie w pewnym stopniu problemem społecznym tkwiącym również w rodzinie. To znaczy czyjeś dzieci są wykorzystywane i te dzieci albo nie zostały odpowiednio przygotowane, do sytuacji w jakich się mogą znaleźć, albo też bywa, że jest przyzwolenie społeczne w różnych grupach na to, żeby to wykorzystywanie było, czy też nie mają się do kogo zwrócić. Żeby cię nie zjedli, to ja jeszcze powiem, że Marcin jest za dobre przypadków, kiedy dzieci zupełnie świetnie przygotowane do wszystkiego są po prostu porywane, nie mają wpływu na nic, niezależnie od tego, co wiedzą na ten temat.
Natomiast na pewno zdrowe relacje z własnymi dziećmi i wzięcie odpowiedzialności za ich wychowanie to jest coś, co mogłoby też bardzo pomóc, bo jednak Internet to jest tylko narzędzie, które służy do rozpowszechniania pewnego rodzaju materiałów. Sam problem jest z jednej strony gdzieś tam w warstwie psychicznej osób, które. . . się takich czynów dopuszczają, ale z drugiej strony też ofiary nie biorą się znikąd. One, można powiedzieć, są gdzieś pomiędzy nami. I niektórzy sporo wiedzą, tylko nie mówią. A mówią dopiero wtedy, kiedy zaczyna mówić więcej osób. Więc to jest jeszcze inny temat i problem, ale to chyba na jakiś podcast bardziej psychologiczny niż technologiczny. Co może pozytywnie zakończmy? Korzystajcie z Trace on Object, zgłoście P. O. P. i. L. a, może komuś pomożecie. Do usłyszenia. .