Algorytmy i społeczeństwo nadzoru 3500-SCC-asn
Algorytmy są wszędzie i gdy sprawnie działają zazwyczaj ich nie
zauważamy. Wykorzystuje się je m. in. do oceny zdolności
kredytowej, oceny kandydatów do pracy, sprawdzania uprawnień
do świadczeń społecznych, targetowania reklam, poprawy jakości
transportu publicznego, czy zapobiegania atakom terrorystycznym.
Są tak powszechne stosowane, bo pozwalają na uproszczenie
skomplikowanych zjawisk, pomagają w identyfikacji zagrożeń,
ułatwiają podejmowanie decyzji oraz dopasowanie treści do
potencjalnych odbiorców, a także przynoszą korzyści finansowe
podmiotom, które je wdrażają. Jednocześnie są dla nas po prostu
wygodne - oszczędzają nam czas i energię potrzebne do
rozpoznawania dostępnych opcji, gromadzenia informacji czy
dokonywania wyborów. Wbrew pozorom nie są to jednak
neutralne i obiektywne narzędzia, które wyłącznie usprawniają
zarządzanie złożonymi problemami – przy ich projektowaniu
dokonuje się wielu wartościujących wyborów, a z ich stosowanie
ma również liczne negatywne skutki społeczne i polityczne.
Celem zajęć jest przyjrzenie się temu jak tworzone są technologie
oparte na algorytmach, na jakich zasadach działają oraz jakie są
społeczne i polityczne konsekwencje ich użycia. Nacisk położymy
na odsłanianie założeń wartościujących, które leżą u podstaw
wybranych technologii. Skupimy się również na generowanych
przez nie zagrożeniach: wzmacnianiu nierówności i reprodukcji
uprzedzeń, utrudnianiu demokratycznej kontroli procesów
politycznych, ingerencji w prywatność, napędzaniu polaryzacji
społecznej.
Zajęcia będą miały także na celu zapoznanie studentów z
podstawowymi tekstami teoretycznymi dotyczącymi zagadnień
nadzoru i kontroli sprawowanych za pomocą technologii opartych
na algorytmach; identyfikacji i kategoryzacji jednostek, tzn. tego w
jaki sposób zbieranie danych o jednostkach używane jest do
„sortowania” ich na lepsze i gorsze (lepszych i gorszych obywateli,
klientów, pracowników); dylematów etycznych związanych z
projektowaniem i wykorzystywaniem technologii opartych na
algorytmach; wpływie rozwoju i upowszechniania się algorytmów
na funkcjonowanie współczesnych demokracji
Podczas zajęć będziemy analizować wybrane przypadki
wykorzystania technologii opartych na algorytmach, zastanawiając
się nad szerszymi zagadnieniami takimi jak granice prywatności,
odhumanizowanie procesów decyzyjnych, słabość mechanizmów
demokratycznych wobec nowych technik nadzoru nad
jednostkami, etc. Interesować nas będą przede wszystkim systemy
scoringowe (scoring kredytowy i modele predykcyjne), systemy
profilowania (profilowanie przestępczości, profilowanie
migrantów, profilowanie bezrobotnych) oraz inne
zautomatyzowane systemy klasyfikacji i oceny jednostek (np.
zautomatyzowane zarządzanie zasobami ludzkimi i oceny
pracownicze). Będziemy się zastanawiać nad tym jakie założenia
wartościujące na temat jednostek (obywateli, klientów,
pracowników) są podstawą tych systemów oraz jakie są społeczne i
polityczne skutki ich stosowania. Do analizy będziemy
wykorzystywać zróżnicowane źródła: literaturę naukową, raporty
organizacji strażniczych, publikacje mediów oraz filmy
dokumentalne.
Rodzaj przedmiotu
Tryb prowadzenia
Założenia (opisowo)
Koordynatorzy przedmiotu
Efekty kształcenia
Absolwent zna i rozumie:
K_W06 zagrożenia wynikającego z używania nowych technologii i
wykorzystywania dużych zbiorów danych
K_W11 w pogłębionym stopniu technologie informacyjne i
algorytmy jako narzędzia odpowiedzialne za transmisję norm i
reguł w społeczeństwie
Absolwent potrafi
K_U10 dokonać krytycznej i refleksyjnej analizy konsekwencji
zastosowania technologii informacyjnych i algorytmów we
współczesnych społeczeństwach
Absolwent jest gotów do:
K_K01 przestrzegania i rozwijania zasad etycznych związanych z
wykorzystaniem danych cyfrowych
K_K02 krytycznej analizy procesów społecznych zachodzących w
środowisku cyfrowym
Kryteria oceniania
Podstawą zaliczenia zajęć jest obecność na zajęciach (dopuszczone
2 nieobecności). Ocena opiera się na aktywności i pracy na
zajęciach (40% oceny), analizie wybranej technologii zgodnie z
wytycznymi wskazanymi podczas zajęć oraz prezentacji wyników
analizy (60%) .
Zaliczenie poprawkowe:
Wykonanie wyżej wymienionych zadań/uzupełnienie lub poprawa
zadań, które nie zostały wcześniej wykonane.
Korzystanie z narzędzi generatywnej sztucznej inteligencji, takich jak ChatGPT, jest dozwolone w przypadku wybranych zadań kursowych/zaliczeniowych. Domyślnie korzystanie z takich narzędzi jest zabronione, chyba że wyraźnie zaznaczono inaczej. Każde użycie musi zostać odpowiednio opisane i/lub zacytowane. Studenci/tki ponoszą odpowiedzialność za wszystkie treści wygenerowane z użyciem narzędzi AI.
Literatura
Bowker, G. C. & Star, S. L. (1999) Sorting things out: classification
and its consequences, MIT Press, Cambridge, Mass.
Bovens, M., Zouridis, S. (2002) From Street-Level to System-Level
Bureaucracies: How Information and Communication Technology
is Transforming Administrative Discretion and Constitutional
Control, Public Administration Review, Vol. 62, No. 2, pp. 174-184.
Citron D.K, Pasqualle F. (2014) The Scored Society: Due Process for
Automated Predictions, University of Maryland Francis King Carey
School of Law Legal Studies Research Paper No. 2014 – 8.
Crawford, K. (2024) Atlas Sztucznej Inteligencji. Kraków: Bo wiem.
Elish, M. C. (2019) Moral Crumple Zones: Cautionary Tales in
Human-Robot Interaction. Engaging Science, Technology, and
Society (5):1–29.
Eubanks, V. (2017) Automating Inequality: How High-Tech Tools
Profile, Police, and Punish the Poor. First Edition. New York, NY: St.
Martin’s Press.
Foucault, M. (1998) Nadzorować i karać: narodziny więzienia.
(Warszawa: Fundacja Aletheia).
Garfinkel, S. (2001) Database Nation: The Death of Privacy in the
21st Century. Cambridge, MA: O’Reilly.
Gilliom, J. (2001) Overseers of the poor: surveillance, resistance,
and the limits of privacy, University of Chicago Press, Chicago.
Lyon, D. (1994) The Electronic Eye: The Rise of Surveillance Society.
Cambridge, MA: Polity Press.
Lyon, D. (ed.) (2006) Theorizing Surveillance: The Panopticon and
Beyond. Cullompton, UK: Willan.
Lyon, D. (2015) ‘Citizenfour Alert!’ and ‘Snowden Storm’ in
Surveillance After Snowden
Lyon, D. (2022), Pandemic Surveillance, Cambridge: Polity.
Miceli, M., Posada, J., and Yang, T. (2022) Studying Up Machine
Learning Data: Why Talk About Bias When We Mean Power?,
Proceedings of the ACM on Human-Computer Interaction
6(GROUP):1–14.
Mittelstadt, B. D., Allo P., Taddeo M. , Wachter S., and Floridi L.
(2016) The Ethics of Algorithms: Mapping the Debate., Big Data &
Society 3(2):1–21.
O’Neil, C. (2017) Broń matematycznej zagłady: jak algorytmy
zwiększają nierówności i zagrażają demokracji. Warszawa: PWN
Piwowar, K. (2022) Technologie, które wykluczają. Pomiar, dane,
algorytmy, Warszawa: Scholar.
Scheiner B. (2015) Data and Goliath: The Hidden Battles to Collect
Your Data and Control Your World, New York: W. W. Norton &
Company.
Scott, J. C. (1998) Seeing like a state: how certain schemes to
improve the human condition have failed, Yale University Press,
New Haven.
Sumpter, D. (2019) Osaczeni przez l1cz3y: o algorytmach, które
kontrolują nasze życie : od Facebooka i Google’a po fake newsy i
bańki filtrujące, Kraków: Copernicus Center Press.
Zuboff, S. (2022) Wiek kapitalizmu inwigilacji. Walka o przyszłość
ludzkości na nowej granicy władzy, Warszawa: Zysk i S-ka.
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: