Podcast 25.02.2021 2 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo. Na skróty: 00:01 Wstęp 03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz? 13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach? 18:20 Zdjęcie zdjęciu nierówne? 25:00 Na co patrzy algorytm? 39:45 Kto przygląda się naszej twarzy? 55:20 Czy prawo nas obroni? 01:00 Chrońmy równość, a nie prywatność Do poczytania i posłuchania: Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Panoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą Obywatelską Panoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczej Nature.com: Facial recognition technology can expose political orientation from naturalistic facial images Journal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images The Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gay Businessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warn Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Bez pozasądowych organów nie wygramy z „prywatną cenzurą” w mediach społecznościowych W połowie marca Ministerstwo Cyfryzacji przedstawiło projekt ustawy wdrażającej akt o usługach cyfrowych (AUC) w Polsce. Brakuje w nim jednak rozwiązań dotyczących „pozasądowych organów rozstrzygania sporów”. Bez nich w praktyce trudno będzie osiągnąć jeden z celów nowej regulacji, tj. 16.04.2024 Tekst Artykuł Apelujemy o zakaz masowego rozpoznawania twarzy! Do końca 2019 r. co najmniej 15 państw unijnych stosowało biometryczne technologie, takie jak rozpoznawanie twarzy, do obserwowania, śledzenia, analizowania aktywności swoich obywateli i obywatelek i oceniania ich. Komisja Europejska zastanawia się, co z tym zrobić i organizuje konsultacje, ale… 13.05.2020 Tekst Podcast Kulturalnie o technologii. Rozmowa z Jakubem Szamałkiem W popkulturze relacja człowieka i technologii to temat stale eksploatowany. Zwykle nie gramy w jednej drużynie. Skąd bierze się technofobia? Czego boimy się najbardziej? Czy groźna cyberprzyszłość jest już naszym udziałem? Zapraszamy na kolejny wakacyjny odcinek podcastu Panoptykon 4.0. … 01.08.2019 Dźwięk