Podcast 09.09.2022 2 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro. Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności. Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną. Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje? Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo. Na skróty: 00:01 Wprowadzenie 03:18 Technologia to jedyna deska ratunku dla kobiet 07:13 Etyczne technologie w sektorze publicznym 09:45 Gdzie Wielka Brytania używa sztucznej inteligencji? 10:58 Dane używane w ochronie zdrowia 16:00 Transparentne dane to norma 18:44 Standard przejrzystości algorytmów 27:26 Algorytmy, które mogą dyskryminować 30:23 Jak informować ludzi, że wchodzą w interakcję z AI? 37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji? 44:29 Zakończenie Do posłuchania i poczytania: Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Panoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historii gov.uk: Standard transparencyjności algorytmów Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Co ma rzecznik do technologii? Rozmowa z dr. hab. Adamem Bodnarem Nowe technologie w rękach służb, cenzura w Internecie ramy prawne dla sztucznej inteligencji… Rozwój technologii przynosi coraz to nowe wyzwania dla praw człowieka. Jaka jest rola Rzecznika Praw Obywatelskich w dialogu między obywatelem/obywatelką, państwem i wielkimi korporacjami? Na jakich… 11.02.2021 Dźwięk Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem,… 20.02.2020 Dźwięk Artykuł Koniec negocjacji aktu ws. sztucznej inteligencji. Nie jest dobrze, ale mogło być gorzej Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. 12.12.2023 Tekst