Artykuł 13.08.2020 4 min. czytania Tekst Image Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. W Fundacji Panoptykon stoimy na stanowisku, że masowe rozpoznawanie twarzy przez państwo z wykorzystaniem kamer opartych na biometrii powinno być zakazane, ponieważ zbyt mocno wkracza w podstawowe prawa obywatelskie. Brytyjski sąd co prawda nie zakazał z góry stosowania takich systemów w przyszłości, ale sformułował wyraźny obowiązek przeprowadzenia analizy algorytmów wykorzystywanych przez inteligentne kamery pod kątem dyskryminacji płciowej i rasowej, przed wdrożeniem systemu, i to nawet wdrożeniem pilotażowym. Ten standard oceny ryzyka powinien być inspiracją dla innych państw. Karolina Iwańska Ten komentarz ukazał się pierwotnie w skróconej wersji na portalu sztucznainteligencja.org.pl. Źródło zdjęcia: bbc.com. Polecamy: Panoptykon: Apelujemy o zakaz masowego rozpoznawania twarzy! Panoptykon 4.0: Kiedy twarz staje się kluczem. Rozmowa z dr Magdaleną Tomaszewską - Michalak Panoptykon: Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Panoptykon: Przewodnik Sztuczna inteligencja non-fiction Fundacja Panoptykon Autor Temat służby sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Apel do europosłów przed głosowaniem w sprawie AI Act: zagłosujcie za ochroną ludzi i ich praw Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon… 04.05.2023 Tekst Artykuł Jawne statystyki nie gryzą: precedensowy sukces Panoptykonu Ministerstwo Cyfryzacji udostępniło nam statystyki, które pokazują, ile razy w latach 2016–2017 Agencja Bezpieczeństwa Wewnętrznego pobierała zdjęcia paszportowe z bazy prowadzonej przez Ministerstwo. To efekt naszej grudniowej wygranej przed Wojewódzkim Sądem Administracyjnym w Warszawie. Okazuje… 20.02.2019 Tekst Artykuł Komisja senacka ds. Pegasusa mówi jasno: służby do kontroli Pegasus jest w Polsce nielegalny, wybory w 2019 r. powinny były być unieważnione, a służby – jak najszybciej poddane ścisłej, niezależnej kontroli. Tak najkrócej można podsumować raport nadzwyczajnej komisji senackiej badającej wykorzystanie w Polsce oprogramowania Pegasus. 07.09.2023 Tekst