Badacze pracują nad generatorami obrazów, aby oszukać oprogramowanie do rozpoznawania twarzy i chronić prawa do prywatności

Kiedy publikujesz swoje zdjęcie na platformie mediów społecznościowych, jaką grupę odbiorców masz na myśli? Przyjaciele? Rodzina? Oprogramowanie do rozpoznawania twarzy?

 Chyba nie to drugie.

Ale obrazy, które publikujemy online rutynowo używa się jako przykłady referencyjne dla systemów rozpoznawania twarzy.

Mogą one być opracowywane przez firmy zajmujące się mediami społecznościowymi, firmy ochroniarskie, agencje wywiadowcze lub dowolną osobę prywatną z wystarczającą mocą komputera, aby stworzyć system głębokiej sieci neuronowej.

Najwyraźniej wielu ludzi nie przejmuje się tym, gdy publikuje swoje zdjęcia. Istnieje jednak obawa o prywatność, która powraca, aby nas ugryźć, zwłaszcza nasze dzieci, które generalnie publikują najwięcej i zwykle mają najmniej informacji o tym, do czego wykorzystywane są zdjęcia.

Gdy zostaniesz rozpoznany przez sztuczną inteligencję, Twój obraz może zostać porównany z materiałem CCTV lub zdjęciami zrobionymi publicznie, dając posiadaczowi przechwyconego obrazu dostęp do Twojej tożsamości online.

Narusza się zostaje publiczna anonimowość.

Takie nadużywanie obrazów stanowi naruszenie praw do prywatności ludzi, ale bardzo trudno jest temu przeciwdziałać.

Nie istnieją jeszcze przepisy chroniące wizerunki ludzi, a nieletni nie mają obecnie prawa do bycia zapomnianym w Internecie.

Korzystanie z systemów rozpoznawania twarzy w połączeniu z nieuprawnionym wykorzystywaniem zdjęć pochodzących z mediów społecznościowych stanowi zagrożenie dla prywatności osób.

 Stosowanie systemów rozpoznawania twarzy stale rośnie na całym świecie.

Rozwój modeli rozpoznawania twarzy typu open source umożliwia tworzenie tego oprogramowania każdemu, kto ma dostęp do umiarkowanej mocy obliczeniowej.

Być może bardziej niepokojący jest wzrost liczby firm wykorzystujących obrazy z mediów społecznościowych za zgodą użytkowników lub bez niej.

Badacze szukają sposobów na stworzenie generatorów obrazu przeciwnika, które mogą być stosowane przez zwykłych użytkowników mediów społecznościowych, aby ich obrazy nie były rozpoznawalne przez sztuczną inteligencję, jednocześnie wyglądając dokładnie tak samo dla ludzkiego oka.

Badacze wyobrażają sobie prostą aplikację, za pomocą której użytkownicy mogliby uruchamiać obrazy przed opublikowaniem ich w Internecie.

Dla ich przyjaciół i rodziny obraz wygląda dokładnie tak samo. Dla sztucznej inteligencji nie zapewnia dopasowania do żadnego innego zdjęcia i nie służy jako punkt danych w modelach rozpoznawania twarzy.

Strona główna » Technologia » Badacze pracują nad generatorami obrazów, aby oszukać oprogramowanie do rozpoznawania twarzy i chronić prawa do prywatności
Ta strona używa plików cookie. Niektóre są niezbędne, aby nasza strona działała, inne pomagają nam ulepszać wrażenia użytkownika. Korzystanie z tej witryny oznacza wyrażenie zgody na wykorzystanie plików cookies. Jednocześnie korzystanie z witryny oznacza, że wyrażasz zgodę na przetwarzanie danych osobowych zgodnie z dyrektywą RODO.. Klikając „Zgadzam się” udzielasz zgody na przetwarzanie Twoich danych osobowych dotyczących Twojej aktywności w Internecie (np. lokalizacji, urządzenia, adresu IP) przez Emigranci.ie i Zaufanych Partnerów w celach marketingowych (w tym dla personalizacji reklam i dokonywania pomiarów) i w celu dostosowania dostarczanych treści. View more
Zgadzam się