Etyczne i prawne wyzwania rozwoju sztucznej inteligencji 3700-AL-EPW-qMF
Upowszechnienie systemów sztucznej inteligencji, którego obecnie jesteśmy świadkami, można traktować jak wielki eksperyment społeczny, którego skutków nie jesteśmy pewni, choć możemy być pewni, że będzie on miał poważne konsekwencje etyczne i prawne.
Podobnie rzecz się miała z innymi wielkimi innowacjami technologicznymi. Przykładowo wynalezienie i upowszechnienie maszyny parowej miało nieprzewidziane następstwa. Początkowo zastępowała jedynie pracę ludzi i zwierząt, jednak wykorzystanie jej jako napędu w pierwszej lokomotywie doprowadziło do nieoczekiwanych i nieodwracalnych zmian w sposobie podróżowania i transportu, handlu czy prowadzeniu wojen.
Jedną z cech charakterystycznych postępu technicznego jest to, że na podstawie jego dotychczasowego przebiegu nie jesteśmy w stanie przewidzieć kolejnych stadiów rozwoju technologii. Co więcej, konsekwencje społeczne wcześniejszych stadiów nie dają nam dobrych podstaw do przewidywania skutków dalszych zmian technologicznych. Problem pogłębia brak dobrych analogii historycznych. Możliwości przetwarzania informacji jakie dają różne technologie sztucznej inteligencji można porównać jedynie ze zmianami w gromadzeniu, przechowywaniu, przekazywaniu i użytkowaniu informacji, jakie spowodowało wynalezienie pisma. Dlatego jej dotychczasowy rozwój nie pozwala nam sformułować wiarygodnych prognoz co do dalszych postępów w tej dziedzinie.
Następstwem tego jest to, że z rozwojem sztucznej inteligencji wiąże się zarówno przesadne nadzieje, jak i nieuzasadnione obawy. W dyskursie publicznym i kulturze popularnej upowszechnił się taki obraz tej technologii, który ma niewiele wspólnego z aktualnym stanem tej dziedziny. Takie nieadekwatne wyobrażenia społeczne mogą mieć istotne konsekwencje etyczne, o których będziemy dyskutować podczas zajęć.
Etyka sztucznej inteligencji zajmuje się zastosowaniem teorii etycznych do rozwiązywania problemów, jakie rodzi upowszechnienie sztucznej inteligencji. Można ją podzielić na dwa działy: etykę dla sztucznej inteligencji i etykę w sztucznej inteligencji. Pierwszy obejmuje kwestie etyczne dotyczące relacji między ludźmi, którzy tworzą, wykorzystują i użytkują sztuczną inteligencję. Drugi zagadnienia etyczne odnoszące się do relacji między systemami sztucznej inteligencji i ludźmi, czyli przede wszystkim implementację reguł etycznych w systemach działających w świecie fizycznym.
Etyka dla sztucznej inteligencji ma charakter antropocentryczny, ponieważ są to systemy tworzone przez ludzi do wykorzystania przez ludzi. Ze względu na to, że relacje między twórcami, operatorami i użytkownikami różnią się od siebie w zależności od tego, jaką rolę odgrywają w funkcjonowaniu systemów sztucznej inteligencji, domenę etyki dla sztucznej można podzielić na: projektowanie i tworzenie sztucznej inteligencji; jej wykorzystanie przez operatorów oraz jej wpływ na użytkowników. Każdy z tych obszarów związany jest z odmiennymi wartościami, które wymagają ochrony.
Część systemów sztucznej inteligencji wchodzi w interakcje z ludźmi w świecie fizycznym. Najbardziej oczywistymi przykładami są roboty, w tym drony i pojazdy autonomiczne, a do pewnego stopnia również asystenci głosowi, boty i urządzenia tworzące rozwijający się internet rzeczy (IoT). Tego rodzaju interakcje rodzą wiele problemów etycznych związanych na przykład z możliwością skrzywdzenia lub wyrządzenia szkody ludziom. Prowadzi to konieczności implementacji wartości i zasad etycznych w takich systemach sztucznej inteligencji, co pozwoli zapewnić przewidywalność ich zachowań oraz ochronę praw ludzi wchodzących z nimi w interakcje. Niezależnie od technicznych problemów związanych z przełożeniem wymogów etycznych na kod źródłowy, rodzi się pytanie o to, jakie powinno być źródło implementowanych wartości i zasad. Możliwości są dwie: empiryczne zbadanie poglądów moralnych potencjalnych użytkowników lub aplikacja dobrze ugruntowanych teorii etycznych. Te dwie opcje omówimy na przykładzie głośnego programu The Moral Machine realizowanego przez Massachusetts Institute of Technology oraz prób zastosowania teorii sprawiedliwości Johna Rawlsa w uczeniu maszynowym i samochodach autonomicznych. Przeanalizujemy również dotychczasowe praktyczne implementacje zasad etycznych w maszynach wyposażonych w sztuczną inteligencję na przykładzie robota Nao. Zastanowimy się również nad możliwością stworzenia tak zwanych sztucznych podmiotów moralnych, czyli maszyn posiadających podmiotowość moralną, które wymagałyby etycznego traktowania.
Zajęcia dotyczyć będą również prawnych aspektów sztucznej inteligencji w dwóch kontekstach: (a) na ile sztuczna inteligencja może być podmiotem praw i obowiązków prawnych (b) w jakim stopniu i w jakich kierunkach podstawowe instytucje prawne ulegają ewolucji z powodu powszechnego zastosowania obiektów i rozwiązań opartych na sztucznej inteligencji.
Co do pierwszej kwestii zastanowimy się, w jakim stopniu (i czy w ogóle) pojawiające się postulaty przyznania osobowości prawnej sztucznej inteligencji są do pogodzenia z fundamentami współczesnych systemów prawnych oraz na ile nadanie sztucznej inteligencji praw oraz obowiązków (kategorie rozpatrywane oddzielnie) jest możliwe bez nadania jej takiej osobowości. Poświęcimy także uwagę temu jakie konsekwencje dla samego rozumienia pojęć „praw” i „obowiązków prawnych” miałoby wyposażenie w nie sztucznej inteligencji.
Co do drugiego kontekstu to skoncentrujemy się na takich instytucjach prawnych oraz pojęciach rozpoznawanych przez prawo jak: (1) wina i odpowiedzialność ponoszona za zawinione działanie, (2) autonomia jednostki i prawo do samodecydowania (3) prawo do informacji oraz przekazy reklamowe, (4) prywatność i poufność, (5) utwór i twórczość. Analizując powyższe będziemy stawiać obiekty oraz rozwiązania sztuczno-inteligentne nie tylko w pozycji narzędzi mający wpływ na ewolucję powyższych instytucji i pojęć, ale także w pozycji narzędzi pełniących jako element samego systemu prawo funkcje arbitrów oraz decydentów co do znaczenia powyższych pojęć, a przez to funkcjonowania tych instytucji.
Rodzaj przedmiotu
Założenia (opisowo)
Koordynatorzy przedmiotu
Efekty kształcenia
W zakresie wiedzy (W):
K_W01 Student/ka ma poszerzoną i pogłębioną wiedzę o miejscu i roli nauk humanistycznych, społecznych, ścisłych i przyrodniczych w kulturze.
K_W02 Student/ka zna i stosuje terminologię nauk humanistycznych, społecznych i przyrodniczych.
K_W05 Student/ka ma wiedzę o najnowszych metodach badań interdyscyplinarnych w naukach humanistycznych, społecznych i przyrodniczych.
K_W07 Student/ka zna zasady komunikacji naukowej w zakresie nauk humanistycznych, społecznych i przyrodniczych ze szczególnym uwzględnieniem znajomości prawa własności intelektualnej.
K_W10 Student/ka rozumie powiązania między działaniami twórców kultury i przedsiębiorców a dynamiką zmian społecznych.
W zakresie umiejętności (U):
K_U01 Student/ka potrafi samodzielnie selekcjonować informacje pochodzące z różnych źródeł naukowych, popularnonaukowych, publicystycznych i innych oraz dokonać ich krytycznej oceny.
K_U02 Student/ka potrafi samodzielnie dobrać i zastosować odpowiednie narzędzia badawcze do analizy dzieł sztuki oraz tekstów naukowych i materiałów wizualnych.
K_U03 Student/ka potrafi samodzielnie opracować (z zachowaniem zasad ochrony własności intelektualnej) i zaprezentować wyniki swojej pracy naukowej i badawczej.
K_U04 Student/ka potrafi samodzielnie sformułować problem badawczy w zakresie nauk humanistycznych, społecznych i przyrodniczych.
K_U05 Student/ka wykorzystuje interdyscyplinarne metody i narzędzia badawczych do analizy zjawisk kultury.
K_U08 Student/ka potrafi samodzielnie zanalizować tekst naukowy z dziedziny nauk humanistycznych, społecznych i przyrodniczych w języku polskim oraz w wybranym języku obcym.
K_U10 Student/ka potrafi przygotować wystąpienie ustne, uwzględniając potrzeby odbiorców.
K_U11 Student/ka rozumie i stosuje reguły pracy zespołowej.
W zakresie kompetencji społecznych (K):
K_K01 Student/ka jest gotów do kształcenia ustawicznego (lifelong learning).
K_K02 Student/ka jest gotów do dynamicznego rozwoju naukowego w obrębie nauk humanistycznych, społecznych i przyrodniczych oraz śledzi nowe metody i paradygmaty badawcze.
K_K03 Student/ka ma kompetencje w zakresie wyboru najwłaściwszych środków służących do realizacji samodzielnie podjętych zadań.
Kryteria oceniania
Podstawą do wystawienia oceny będzie prezentacja przygotowana w oparciu o samodzielną pracę ze źródłami i aktywny udział w dyskusji podczas zajęć.
Literatura
1. M. Coeckelbergh, AI Ethics, MIT Press: 2020; rozdz. 4: Just Machines?, rozdz. 5: The Technology.
2. L. Floridi, M. Taddeo, 2016. What is data ethics?, Philosophical Transactions of Royal Society A, 374, 20160360.
3. A. Zwitter, 2014. Big Data ethics. Big Data & Society, 1(2).
4. J. Turner, Robot Rules. Regulating Artificial Intelligence, Palgrave Macmillan: 2019; rozdz. 6: Building a Regulator
5. P. Lin, Why ethics matters for autonomous cars, w: Maurer, M., Gerdes, J., Lenz, B., Winner, H. (Eds.). Autonomes Fahren, Springer Vieweg: 2015, pp. 69–85.
6. DiMatteo, L. (2022). Artificial Intelligence: The Promise of Disruption. In L. DiMatteo, C. Poncibò, & M. Cannarsa (Eds.), The Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law and Ethics (Cambridge Law Handbooks, pp. 3-17). Cambridge: Cambridge University Press.
7. Jobin, A., Ienca, M. & Vayena, E. The global landscape of AI ethics guidelines. Nature Machine Intelligence 1, 389–399 (2019).
8. Rabia Tehseen, Uzma Omer, Muhammad Shoaib Farooq, and Ayesha Saddiqua, Ethical Guidelines for Artificial Intelligence: A Systematic Literature Review. VFAST Transactions on Software Engineering, Vol. 9, No. 3, 2021, pp: 33-47.
9. Reinhardt, K. Trust and trustworthiness in AI ethics. AI Ethics (2022).
10. Floridi L., Cowls, J. 2019. A unified framework of five principles for AI in society, Harvard Data Science Review, Issue 1.
11. Floridi L. 2019. Translating principles into practices of digital ethics: five risks of being unethical. Philosophy & Technology, Vol. 32, Issue 2, pp. 185–193.
12. Diakopoulos, N. 2020. Transparency. In: Dubber M. D., Pasquale, F., Das, S. (Eds.). The Oxford Handbook of Ethics of AI, Oxford University Press, pp. 197–213.
13. V. Dignum, Responsibility and Artificial Intelligence, w: Markus D. Dubber, Frank Pasquale, Sunit Das, ed. The Oxford Handbook of Ethics of AI, Oxford University Press: 2020.
14. Heather M. Roff, The folly of trolleys: Ethical challenges and autonomous vehicles: https://www.brookings.edu/research/the-folly-of-trolleys-ethical-challenges-and-autonomous-vehicles/
15. Anderson M., Anderson S.L., Robot be good. "Scientific American". 2010 Oct; 303(4): 72-77
16. D. Leben, Ethics for Robots: How to Design a Moral Algorithm, Routledge: 2018, rozdz. 5: Ethics engines.
17. E. Davis, Ethical guidelines for a superintelligence, Artificial Intelligence, Volume 220, March 2015, pp. 121-124
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: