Stolica Apostolska: Sztuczna inteligencja (AI) ¨C szansa i zagro?enie
Salvatore Cernuzio ¨C Città del Vaticano
Nie nale?y traktowa? sztucznej inteligencji jako osoby, nie nale?y jej ubóstwia? ani pozwala?, by zast?pi?a relacje mi?dzyludzkie, lecz powinna by? wykorzystywana ?jedynie jako narz?dzie uzupe?niaj?ce ludzk? inteligencj?¡±. Ostrze?enia Papie?a dotycz?ce sztucznej inteligencji z ostatnich lat stanowi? osnow? dokumentu ?Antiqua et Nova¡± (odwo?anie do ?m?dro?ci starej i nowej¡±), noty dotycz?cej relacji mi?dzy sztuczn? inteligencj? a ludzk? inteligencj?. Jest to owoc wspólnej refleksji Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji.
Dokument jest skierowany do rodziców, nauczycieli, kap?anów, biskupów i wszystkich powo?anych do wychowania i przekazywania wiary, a tak?e do tych, którzy uznaj? konieczno?? rozwoju naukowego i technologicznego ?w s?u?bie osoby i dobra wspólnego¡± [5]. Opublikowana 28 stycznia Nota zosta?a zatwierdzona przez Papie?a. W 117 paragrafach Antiqua et nova podkre?la wyzwania i mo?liwo?ci rozwoju sztucznej inteligencji (AI) w dziedzinie edukacji, ekonomii, pracy, zdrowia, stosunków mi?dzynarodowych i mi?dzyludzkich oraz w kontek?cie dzia?a¨½ wojennych. W tym ostatnim przypadku ¨C jak ostrzega Nota ¨C mo?liwo?ci AI mog?yby zwi?kszy? zasoby militarne ?daleko poza zasi?giem kontroli cz?owieka¡±, przyspieszaj?c ?destabilizuj?cy wy?cig zbroje¨½, prowadz?cy do katastrofalnych konsekwencji dla praw cz?owieka¡± [99].
Niebezpiecze¨½stwa i korzy?ci
Dokument szczegó?owo i w wywa?ony sposób wymienia zarówno zagro?enia zwi?zane ze sztuczn? inteligencj?, jak i korzy?ci z niej p?yn?ce, które wr?cz zach?ca do rozwijania jako ?cz??? wspó?pracy¡± cz?owieka z Bogiem ?w doprowadzaniu widzialnego stworzenia do doskona?o?ci¡± [2]. Mimo to niepokój jest du?y i dotyczy wszystkich innowacji, których skutki pozostaj? wci?? nieprzewidywalne ¨C nawet tych, które obecnie wydaj? si? nieszkodliwe, jak generowanie tekstów i obrazów.
Rozró?nienie mi?dzy sztuczn? inteligencj? a inteligencj? ludzk?
Refleksje dwóch Dykasterii koncentruj? si? na etycznych i antropologicznych aspektach, które znajduj? si? w centrum dokumentu. Wiele paragrafów Noty po?wi?cono ?decyduj?cemu¡± rozró?nieniu mi?dzy sztuczn? inteligencj? (AI) a inteligencj? ludzk?. Inteligencja ludzka ?urzeczywistnia si? w relacjach¡± [18], jest kszta?towana przez Boga i ?plastyczna dzi?ki niezliczonym do?wiadczeniom prze?ywanym w cielesno?ci¡±. Sztucznej inteligencji ?brakuje zdolno?ci do ewolucji w tym znaczeniu¡± [31]. Jej perspektywa jest ?czysto funkcjonalistyczna¡±, oceniaj?ca ludzi wy??cznie przez pryzmat ich pracy i osi?gni??, podczas gdy ludzka godno?? jest niezbywalna i zawsze nienaruszalna. Dotyczy to tak?e ?dziecka nienarodzonego¡±, ?osoby w stanie nie?wiadomo?ci¡± czy ?cierpi?cego seniora¡± [34]. ?Myl?ce¡± jest zatem u?ywanie s?owa ?inteligencja¡± w odniesieniu do sztucznej inteligencji: nie jest ona ?sztuczn? form? inteligencji¡±, ale ?jednym z jej wytworów¡± [35].
W?adza w r?ku nielicznych
Jak ka?dy wytwór ludzkiego geniuszu, sztuczna inteligencja mo?e by? skierowana zarówno ku ?celom pozytywnym, jak i negatywnym¡± ¨C podkre?la Antiqua et Nova. Dokument nie zaprzecza, ?e sztuczna inteligencja mo?e wprowadzi? ?wa?ne innowacje¡± w ró?nych dziedzinach [48], mo?e ona równie? pog??bi? zjawiska marginalizacji, dyskryminacji, ubóstwa, ?wykluczenia cyfrowego¡± i nierówno?ci spo?ecznych [52]. W szczególno?ci ?obawy etyczne¡± budzi fakt, ?e ?wi?kszo?? w?adzy nad g?ównymi zastosowaniami sztucznej inteligencji jest zgromadzona w r?kach kilku pot??nych firm¡± [53], co powoduje, ?e technologi? t? mo?na manipulowa? dla osi?gni?cia ?osobistych lub korporacyjnych korzy?ci¡± albo do ?kierowania opini? publiczn? w interesie okre?lonego sektora¡± [53].
Wojna
Nast?pnie Nota analizuje ró?ne aspekty ?ycia w odniesieniu do sztucznej inteligencji. Nie mog?o zabrakn?? odniesienia do wojny. ?Zdolno?ci analityczne¡± sztucznej inteligencji mog?yby zosta? wykorzystane, aby pomóc narodom w d??eniu do pokoju i bezpiecze¨½stwa, ale ?powa?ne powody do niepokoju etycznego¡± budz? systemy autonomicznej i ?mierciono?nej broni, zdolne do ?identyfikowania i atakowania celów bez bezpo?redniej interwencji cz?owieka¡± [100]. Papie? wezwa? do pilnego zakazania ich stosowania, jak powiedzia? na szczycie G7 w Apulii: ??adna maszyna nie powinna nigdy decydowa?, czy odebra? ?ycie istocie ludzkiej¡±.
Maszyny zdolne do autonomicznego precyzyjnego zabijania oraz inne technologie masowego niszczenia stanowi? realne zagro?enie dla ?przetrwania ludzko?ci lub ca?ych regionów¡± [101]. Te technologie ?nadaj? wojnie niekontrolowan? niszczycielsk? moc, która dotyka wielu niewinnych cywilów, nie oszcz?dzaj?c nawet dzieci¡± ¨C ostrzega Antiqua et Nova. Aby zapobiec wci?gni?ciu ludzko?ci w ?spiral? samozniszczenia¡±, konieczne jest ?zaj?cie jednoznacznego stanowiska przeciwko wszelkim zastosowaniom technologii, które zagra?aj? w sposób fundamentalny ?yciu i godno?ci osoby ludzkiej¡±.
Relacje ludzkie
Je?li chodzi o relacje mi?dzyludzkie, w dokumencie zauwa?ono, ?e sztuczna inteligencja mo?e ?sprzyja? nawi?zywaniu kontaktów¡±, ale jednocze?nie prowadzi? do ?szkodliwej izolacji¡± [58]. ?Antropomorfizacja sztucznej inteligencji¡± stwarza równie? szczególne trudno?ci dla rozwoju dzieci, które s? zach?cane do rozumienia ?relacji mi?dzyludzkich w sposób utylitarny¡±, jak ma to miejsce w przypadku chatbotów [60].
Za ?b??dne¡± uznaje si? przedstawianie sztucznej inteligencji jako osoby, a ?powa?nym naruszeniem etycznym¡± jest wykorzystywanie tego w nieuczciwych celach. Podobnie, ?u?ywanie AI do wprowadzania w b??d w innych kontekstach ¨C takich jak edukacja czy relacje mi?dzyludzkie, w tym w sferze seksualno?ci ¨C jest g??boko niemoralne i wymaga uwa?nego nadzoru¡± [62].
Ekonomia i praca
Podobna czujno?? jest wymagana w kontek?cie gospodarki i finansów. W szczególno?ci w obszarze pracy zauwa?a si?, ?e cho? sztuczna inteligencja ma ?potencja?¡± do zwi?kszenia kompetencji, produktywno?ci czy tworzenia nowych miejsc pracy, to jednocze?nie mo?e ?obni?a? kwalifikacje pracowników, poddawa? ich automatycznemu nadzorowi oraz sprowadza? ich role do sztywnych i powtarzalnych funkcji¡± [67].
Taki proces mo?e wr?cz ?dusi?¡± wszelk? zdolno?? do innowacji. Nota podkre?la: ?Nie mo?emy d??y? do coraz wi?kszego zast?powania pracy ludzkiej post?pem technologicznym ¨C post?puj?c w ten sposób, ludzko?? szkodzi samej sobie¡± [70].
Zdrowie
Znaczn? uwag? po?wi?ca si? tematowi ochrony zdrowia. Chocia? sztuczna inteligencja ma ogromny potencja? w ró?nych zastosowaniach medycznych (na przyk?ad wspieranie diagnostyki), istnieje ryzyko, ?e zast?pienie relacji mi?dzy lekarzem a pacjentem interakcj? wy??cznie z maszynami mog?oby ?pog??bi? samotno??, która cz?sto towarzyszy chorobie¡±. Optymalizacja zasobów równie? nie powinna ?krzywdzi? najs?abszych¡± ani prowadzi? do ?uprzedze¨½ i dyskryminacji¡± [75], które mog?yby umocni? ?medycyn? dla bogatych¡±. W takim systemie osoby posiadaj?ce ?rodki finansowe korzystaj? z zaawansowanych narz?dzi profilaktyki i spersonalizowanych informacji medycznych, podczas gdy inni maj? trudno?ci z uzyskaniem dost?pu nawet do podstawowych us?ug.
Edukacja
W obszarze edukacji równie? wskazuje si? na potencjalne zagro?enia. Je?li sztuczna inteligencja b?dzie wykorzystywana w sposób rozwa?ny, mo?e poprawi? dost?p do nauki i zapewni? uczniom ?natychmiastow? informacj? zwrotn?¡± [80]. Problem polega jednak na tym, ?e wiele programów ?ogranicza si? do udzielania gotowych odpowiedzi zamiast zach?ca? uczniów do samodzielnego ich poszukiwania lub tworzenia w?asnych tekstów¡±. Prowadzi to do utraty umiej?tno?ci gromadzenia informacji oraz rozwijania krytycznego my?lenia [82]. Nale?y równie? pami?ta? o ryzyku generowania przez niektóre programy ?zniekszta?conych lub fa?szywych informacji¡± b?d? ?nie?cis?ych tre?ci¡±, co mo?e przyczynia? si? do legitymizowania fake newsów [84].
Fake News i Deepfake
W odniesieniu do fake news dokument zwraca uwag? na powa?ne ryzyko, ?e sztuczna inteligencja mo?e ?generowa? zmanipulowane tre?ci i fa?szywe informacje¡± [85], tworz?c tym samym ?halucynacje¡± AI, czyli nieprawdziwe tre?ci, które wydaj? si? realne. Jeszcze bardziej niepokoj?ce jest celowe wykorzystywanie takich fikcyjnych tre?ci do manipulacji. Na przyk?ad, gdy celowo rozpowszechnia si? obrazy, filmy czy nagrania d?wi?kowe w formie deepfake (przerobione lub wygenerowane przez algorytmy), aby ?oszukiwa? lub szkodzi?¡± [87]. W zwi?zku z tym apeluje si? o zawsze staranne ?sprawdzanie prawdziwo?ci¡± udost?pnianych tre?ci oraz o unikanie w ka?dym przypadku ?udost?pniania s?ów i obrazów uw?aczaj?cych godno?ci cz?owieka¡±. Podkre?la si? równie? konieczno?? wykluczania wszystkiego, ?co podsyca nienawi?? i nietolerancj?, poni?a pi?kno i intymno?? ludzkiej seksualno?ci, a tak?e wykorzystuje s?abszych i bezbronnych¡± [89].
Prywatno?? i kontrola
W kwestii prywatno?ci i kontroli dokument podkre?la, ?e niektóre rodzaje danych mog? dotyka? najg??bszej intymno?ci cz?owieka, ?a mo?e nawet jego sumienia¡± [90]. Dane pozyskiwane s? obecnie przy u?yciu minimalnej ilo?ci informacji, co rodzi ryzyko, ?e wszystko stanie si? ?swego rodzaju spektaklem, który mo?na szpiegowa? i monitorowa?¡± [92]. Zwraca si? tak?e uwag?, ?e ?cyfrowa inwigilacja mo?e by? wykorzystywana do kontrolowania ?ycia wierz?cych oraz sposobu wyra?ania ich wiary¡± [90].
Wspólny dom
W kontek?cie troski o stworzenie za ?obiecuj?ce¡± uznaje si? zastosowania sztucznej inteligencji, które mog? poprawi? relacj? z naszym wspólnym ?rodowiskiem. Mo?na tu wspomnie? o modelach przewiduj?cych ekstremalne zjawiska klimatyczne, wspieraj?cych dzia?ania ratunkowe czy promuj?cych zrównowa?one rolnictwo [95]. Jednocze?nie jednak obecne modele AI i wspieraj?ca je infrastruktura sprz?towa wymagaj? ?ogromnych ilo?ci energii i wody, przyczyniaj? si? znacz?co do emisji CO2 oraz intensywnie zu?ywaj? zasoby¡±. W zwi?zku z tym obci??enie dla ?rodowiska jest ?ci??kie¡±: ?Rozwój zrównowa?onych rozwi?za¨½ ma kluczowe znaczenie dla zmniejszenia ich wp?ywu na nasz wspólny dom¡±.
Odniesienie do Boga
?Przekonanie, ?e mo?na zast?pi? Boga dzie?em w?asnych r?k, jest ba?wochwalstwem¡± ¨C dokument cytuje Pismo ?wi?te, aby przestrzec przed tym, ?e sztuczna inteligencja mo?e by? ?bardziej kusz?ca ni? tradycyjne bo?ki¡± [105]. Przypomina, ?e AI jest jedynie ?bladym odbiciem¡± ludzko?ci: ?Sztuczna inteligencja nie powinna by? ubóstwiana i czczona, poniewa? w ten sposób cz?owiek sam staje si? niewolnikiem swojego w?asnego dzie?a¡±. St?d te? ko¨½cowe zalecenie: ?Sztuczna inteligencja powinna by? wykorzystywana jedynie jako narz?dzie uzupe?niaj?ce ludzk? inteligencj?, a nie zast?puj?ce jej bogactwo¡± [112].
Dzi?kujemy, ?e przeczyta?a?/e? ten artyku?. Je?li chcesz by? na bie??co zapraszamy do zapisania si? na newsletter klikaj?c tutaj.