杏MAP导航

Hledejte

Profesor Benanti o nótě Antiqua et Nova: Pomáhá klást správné otázky

Rozhovor s odborníkem na technologickou etiku, kter? se zab?vá dopadem umělé inteligence na informace: Nóta dvou dikasterií vyz?vá k odpovědnosti, prohla?uje franti?kán Paolo Benanti.

Andrea Tornielli

?Je to dokument, který nám ?íká: mo?ná je ?as klást si otázky, ne? za?neme dávat odpovědi“. Těmito slovy Fra' Paolo Benanti, profesor na Gregoriánské univerzitě, odborník na bioetiku a etiku technologií, p?edseda Komise pro studium dopadu umělé inteligence na ?urnalistiku a edi?ní ?innost italské vlády, ozna?uje Nótu ?Antiqua et Nova“ dikasterií pro nauku víry a kulturu o vztahu umělé inteligence a lidské inteligence. Takto ji komentuje s vatikánskými médii.

V ?em podle vás spo?ívá novost tohoto dokumentu?

Je to uvědomění si tohoto jevu ze strany vě?ícího my?lení, které má také za cíl doprovázet církev v ?ivotě spole?nosti. ?ím více si klademe otázky o tomto stroji schopném nahradit ?ást lidského rozhodování, tím více si nevyhnutelně klademe otázky o samotné identitě lidské bytosti a jedine?nosti, která ji charakterizuje, tedy o tom, co nás ?iní tvory ve vztahu ke Stvo?iteli. Skute?ná novost tohoto textu spo?ívá v tom, ?e nás uvádí do správné perspektivy, abychom si kladli otázky o na?í identitě a na?í schopnosti p?ispívat k pé?i o svět, který nám Stvo?itel svě?il, a k jeho kultivaci.

Umělá inteligence se tak stává p?íle?itostí klást si otázky o tom, co vlastně jsme?

To je skvělá zpráva: pomyslete na to, ?e je?tě p?ed deseti a? patnácti lety se tento druh otázek o ?lověku zdál zastíněný. Objevovala se politická rozhodnutí, která fakticky ztoto?ňovala některé druhy lidoop? s ?lověkem nebo která embryu ?i osobám ?ijícím v terminální fázi ?ivota upírala lidskou identitu. To, co se zdálo být otázkou, kterou je t?eba odlo?it do minulosti, se najednou díky lidské práci mohutně vrací do ve?ejné debaty a celosvětového zájmu. Tato otázka má dvojí význam: na jedné straně je antropologická, jak je v dokumentu dob?e zd?razněno, na druhé straně má nepochybně sociální d?sledky, a proto si ji? nyní m??eme p?edstavit, ?e bude rozvíjena v rámci sociální nauky církve.

Jaký je rozdíl mezi tzv. umělou inteligencí a lidskou inteligencí?

Právě lidská p?irozenost - kterou je obtí?né pojmout do p?edem stanovené definice ?i perimetru - nás vede k tomu, ?e kdy? mluvíme o ?lověku, mluvíme o ně?em, co je v mnoha svých dimenzích snáze popsatelné. Zamyslíme-li se nad tím, jak o inteligenci hovo?ili ?ekové, musíme uznat, ?e se jednalo o slova ?v mno?ném ?ísle“: Odysseus je definován jako ?lstivý“, ?inteligentní“, p?i?em? slovo metis ozna?uje formu inteligence schopnou nalézat ?e?ení praktických problém?. Kdy? se naopak hovo?í o inteligenci schopné pochopit smysl celku, pou?ívají ?ekové slovo nous. Zde se tedy ji? v matricích západního my?lení setkáváme s plurální lidskou inteligencí, schopnou vydat se několika směry. Umělá inteligence nenahrazuje v?echny tyto formy inteligence: je velmi dobrá ve vyhrávání her, v hledání ?e?ení, je schopna velkého metis. Ale nous, to, co hledá smysl celku a je schopno orientovat ná? ?ivot směrem k horizontu, budoucnosti nebo dokonce transcendenci, to je pouze lidské.

?eho se máme bát v p?ípadě aplikací umělé inteligence?

Pokud si mohu dovolit ?ertovat, ?ekl bych, ?e první, ?eho se máme bát, je p?irozená hloupost. Proto?e stroj není schopen se sám dosadit do role náhradníka: v?dy jsme to my, kdo by v d?sledku výpo?t? nebo pokus? o optimalizaci ur?itých proces? mohl stroj vyu?ít tím, ?e by se rozhodl místo ?lověka. A tak výkonný stroj, schopný ve zlomcích vte?iny volit mezi nekone?ným mno?stvím mo?ností, není v?dy schopen suplovat to, ?emu se lidsky ?íká rozhodnutí, tedy něco, co souvisí s moudrostí. Zde je celá ambivalence umělé inteligence, která je schopna dělat věci s velkou rychlostí a efektivitou, zatímco ?lověk je na druhé straně povolán k tomu, aby se ptal po smyslu. Mo?ná bychom se mohli nebo měli obávat v?ech těch rozhodnutí, která nep?istupují k rozhodování. Pomysleme nap?íklad na léka?skou sféru: diagnóza nikdy není pouhou volbou mezi terapiemi, ale p?evzetím lidské existence jinou lidskou existencí, která jí implicitně dává p?íslib vylé?ení. Musíme se obávat v?ech situací, v nich? bychom zakusili oslabení lidskosti, abychom umo?nili zvý?ení ?strojovosti“. A místo toho podporovat v?echny aplikace, které tuto lidskou odpovědnost udr?ují p?i ?ivotě.

Dokument klade velký d?raz na lidskou odpovědnost a zodpovědnost. Pro??

Existují dva hlavní směry, které dávají vzniknout krásné odpovědi v tomto dokumentu. Je zde jeden pramen, který vychází z perspektivy víry a klade si otázku, v ?em spo?ívá lidská specifi?nost z hlediska svědomí. Koncilní konstituce Gaudium et spes k nám promlouvá o onom intimním místě v nás, kde v ur?itých chvílích sly?íme hlas, který nám ?íká: dělej to a vyhni se tomu. Je to svatyně, kde ?lověk sly?í Bo?í hlas. Zde je matrice odpovědnosti. Ale v rámci tohoto vě?ícího vědomí je také celé vědomí o ú?inku odstranění odpovědnosti z lidského rozhodování. Velcí spisovatelé, jako nap?íklad Hannah Arendtová, hovo?ili o tom, ?e ve velkých masakrech minulého století do?lo k pokusu odejmout odpovědnost z lidského rozhodování, aby se stalo sou?ástí soukolí, které vede k maximálnímu odlid?tění osobnosti a spole?nosti. Tyto dvě lidské schopnosti, víra a rozum, podávající si ruce, nám mohou pomoci nahlédnout, jak inovovat umělou inteligenci, aby se skute?ně stala zdrojem lidského rozvoje.

Bohu?el stále vidíme roli autonomních zbraní. Co m??eme ?íci o pou?ití umělé inteligence ve válce?

Vzpomeňte si na nás p?ed 60 000 lety, kdy jsme v jeskyni poprvé vzali do ruky kyj. Byl to nástroj, jak získat více kokosových o?ech?, a zbraň, jak rozp?lit více lebek ne? ostatní lidé. Poka?dé, kdy? se setkáme s technologií, ?elíme poku?ení proměnit nástroj ve zbraň. Jsme v?ak také zasazeni do p?íběhu spásy - vzpomeňte si na proroka Izajá?e -, v něm? se zbraně mohou stát nástroji ke kultivaci, k nasycení a k darování ?ivota. V tomto na?em p?íběhu h?íchu a obrácení mají ti, kdo vedou válku, velmi silné poku?ení pou?ívat nástroje s tak mocnou technologií. Dovolte mi p?ipomenout, ?e umělá inteligence není první formou autonomní technologie pou?ívané ve válce. Vzpomeňte si na protipěchotní miny: jsou autonomní! Systém umělé inteligence lze definovat jako něco, co doká?e od ?lověka p?evzít cíl a následně p?izp?sobit prost?edky k jeho dosa?ení. Av?ak nikde jinde ne? ve válce nevidíme, ?e v?echny prost?edky nejsou stejné: od velké atomové tragédie jsme si uvědomili, ?e existují prost?edky, kterým je t?eba se za ka?dou cenu vyhnout. Stroj se na rozdíl od ?lověka nikdy neunaví v úsilí o dosa?ení svého cíle, a tak se m??e stát, ?e pokud se budeme spoléhat pouze na stroje, nikdy nenastane p?ímě?í. ?ím více lidských schopností, tím radikálněj?í otázky musíme zodpovědět.

Pape? Franti?ek ve svém loňském projevu na zasedání G7 ?ekl, ?e rozhodnutí o odnětí lidského ?ivota by nikdy nemělo být ponecháno na stroji.

Je to prorocký pape??v hlas. Velmi silný hlas udávající směr. Pot?ebujeme mimo?ádnou obez?etnost, nebo spí?e, abychom pou?ili slova dokumentu, mimo?ádnou odpovědnost.

Umělá inteligence dnes umo?ňuje fal?ovat zobrazení reality. Vzpomeňme si na fale?né nebo retu?ované snímky, které jsou stále méně rozeznatelné od skute?ných. Nebo masové ?í?ení fale?ných zpráv. Jak m??eme těmto odklon?m ?elit?

Zdá se, ?e pro některé se pravda stala ně?ím druhotným a ?e je mo?né vytvá?et narativy zcela odtr?ené od fakt?. V?echny západní demokracie jsou zalo?eny na základním p?edpokladu: mohou existovat jako demokracie, pokud jsou lidé schopni vytvo?it si správný názor na základě fakt?. Demokracie tak dává noviná?i témě? roli státního ú?edníka: jeho profesionalita je podobná profesionalitě vědce, který hledá pravdu, nebo soudce, který se sna?í zjistit fakta. Umělá inteligence by mohla některé typy proces? produkce informací výrazně zlevnit, ale neudělala by je pravdivěj?ími nebo u?ite?něj?ími. Abychom mohli ?ít v demokracii, pot?ebujeme profesionální ?urnalistiku a profesionální ?urnalistika pot?ebuje pr?mysl. To v?e m??e umělá inteligence v nesprávných rukou nebo s nesprávnými cíli ekonomicky po?kodit nebo zni?it ve své kapacitě.

Jak se m??eme chránit?

Dokument p?ipomíná klí?ovou kategorii odpovědnosti, p?i?em? existují formy odpovědnosti, které ve ve?ejném prostoru nabývají konzistence zákona. Mo?ná nastal ?as trvat na tom, aby existovalo ?kognitivní“ právo lidí: právo vědět, který obsah zpracoval ?lověk, který do něj vlo?il svou profesní odpovědnost, a který vytvo?il stroj. Mo?ná bychom měli definovat několik mantinel?, abychom udr?eli slu?bu pravdivosti informací a ?urnalistiky na správné cestě. Dokument nám ?íká, ?e je mo?ná na ?ase klást si otázky, ne? na ně budeme dávat odpovědi.

Edi?ní ?editel vatikánských médií Andrea Tornielli s otcem Benantim
Edi?ní ?editel vatikánských médií Andrea Tornielli s otcem Benantim
28. ledna 2025, 14:02