颁í谤办别惫 a umělá inteligence: nikoli skeptikové, ale ani tě?itelé
Tuto otázku si mimo jiné klade profesor Gregoriánské univerzity, o. Paolo Benanti, p?vodem strojní in?enýr, který se po studiích filosofie a teologie zamě?il na etiku, bioetiku a etiku technologií. Podle tohoto italského franti?kána nové technologie nejenom v?e urychlují, nýbr? jsou svým masivním pronikáním do na?í reality schopny zcela změnit vztah mezi ?lověkem a strojem. nicméně nezavrhuje ?u?ené stroje“, které umístil rovně? do titulu své poslední knihy (Le Macchine sapienti. Intelligenze artificiali e decisioni umane; Marietti Editore), av?ak varuje p?ed manipulací softwaru, která m??e dovést k nové sociální nespravedlnosti.
?Nejprve bychom se měli velice jasně podívat na změny, kterých jsme svědky. Nová vlna technologické inovace zcela mění vztah mezi ?lověkem a strojem a také některé oblasti na?eho ?ivota, v?etně práce, citových vztah?, hledání partnera ?i estetických kánon?. P?itom je t?eba se vyhnout dvěma krajním postoj?m – pokud bychom chtěli parafrázovat Umberta Eca, nebýt ani ?skeptiky“, ani ?tě?itely“, tedy domnívat se, ?e se tu nic nemění. Měli bychom spí?e zachovat obez?etnost a ptát se sami sebe, zda chceme rozvoj takto nasměrovat. O?ehavým jádrem celého problému je skute?nost, ?e systémy umělé inteligence nás mohou p?ivést k mínění, ?e jsou schopny nahradit některé lidské ?innosti.“
V ?em tedy spo?ívá etická naléhavost v nakládání s umělou inteligencí?
?P?edev?ím je t?eba tak?íkajíc otevírat ?erné sk?íňky umělé inteligence. Tyto stroje fungují na základě algoritm?. Jejich software vymysleli lidé, ale jako v p?edchozích p?ípadech se nejedná o jednoduchý logický ?etězec, nýbr? o softwary ur?ené k výcviku. Vzniká zde proto velký problém, jak tento výcvik uskute?nit. Existuje ji? celá ?ada studií o tom, ?e tyto softwary mohou importovat zaujatost lidí, kte?í je vytvo?ili, anebo vyvinout nové p?edsudky na základě aplikovaných dat. Je tudí? z?ejmé, ?e software umělé inteligence, který podstupuje milion rozhodnutí, m??e vyprodukovat sociální újmu velice ?irokého dosahu. Mohou tak vznikat méně spravedlivé a paradoxně méně transparentní spole?nosti, proto?e nebudou mít p?ístup k faktor?m této nespravedlnosti. Konkrétně se to projeví t?eba p?i poskytování p?j?ek, vázaných na riziko d?věryhodnosti ?adatele, které vypo?ítá algoritmus (algorithmic risk assessment), anebo ve zdravotnictví, kde algoritmus ur?í zahájení lé?by, ?i v oblasti národní bezpe?nosti, anebo dokonce v personalistice, kde software rozhoduje o vhodných kandidátech na nové pracovní místo“.
Právě kv?li zamezení těchto situací Paolo Benanti vyzývá, aby ?ízení umělé inteligence zohlednilo v?estranný lidský rozvoj, jak jej p?edkládá pape?ské magisterium a sociální u?ení církve.
?V tuto chvíli existují dva velké rozvojové modely těchto systém? – americký, ve kterém vládne trh, a tudí? vět?í produktivita a zisk. Na druhé straně existuje ?ínský vzorec, který tíhne ke státní kontrole. Podle mého názoru by se správa umělé inteligence měla vrátit k západnímu, evropskému modelu, jeho? výrazem je ve?ejné prostranství, kolem kterého se shroma??uje polis. Konfrontují se zde r?zné kompetence, které se sna?í posoudit aktuální dění a ?ídit je ku prospěchu toho, co vnímají jako obecné blaho. Nakládání s umělou inteligencí znamená vytvo?it takové kontexty, ve kterých by se rozvoj stal skute?ným pokrokem, jak zd?razňují pape?ské dokumenty, a které p?ihlí?ejí k integrální ekologii, tedy spole?enské provázanosti lidských vztah?. Z antropologického hlediska tu m??eme zaznamenat dvojí tendenci – na jedné straně se stroje polid??ují, na druhé straně hrozí, ?e se z ?lověka stane stroj a ?e tak zredukujeme hluboké lidské pro?itky, jako zamilovanost a lásku, na pouhý algoritmus, výpo?et, ?i lépe ?e?eno, na jejich strojově vypo?itatelnou ?ást.“
Vysvětluje profesor Pape?ské univerzity Gregoriana, o. Paolo Benanti.
(jag)