杏MAP导航

Cerca

Il Forum per la sicurezza e la cooperazione dell’Osce Il Forum per la sicurezza e la cooperazione dell’Osce

La Santa Sede: l'IA risorsa di “pace”, ma anche potenziale minaccia “esistenziale”

Al Forum per la sicurezza e la cooperazione dell’Osce, monsignor Richard Gyhra, osservatore permanente vaticano, mette in guardia sui rischi legati all’uso di strumenti innovativi in ambito militare, a cominciare dall'Intelligenza Artificiale, sottolineando l’impossibilità di governare tali contesti esclusivamente attraverso algoritmi

Edoardo Giribaldi – Città del Vaticano

Guidare lo sviluppo delle "tecnologie emergenti" affinché servano il bene comune e la dignità umana, rifiutando un mondo in cui conflitti e decisioni siano dominati dagli algoritmi. È questa la visione della Santa Sede, espressa ieri, 26 febbraio, al Forum per la sicurezza e la cooperazione dell'Osce da monsignor Richard Gyhra, osservatore permanente vaticano.

Le responsabilità dell'uomo

“Non si può sfuggire alle gravi questioni etiche legate al settore degli armamenti”: con queste , monsignor Gyhra ha aperto il suo intervento sul tema “Uso militare responsabile delle tecnologie nuove ed emergenti”. Al centro della riflessione, la necessità di salvaguardare i “principi etici” che “sostengono il valore intrinseco di ogni persona” e la sua capacità di discernimento e “assunzione di responsabilità”.


Minore percezione dei danni della guerra

In tema di tecnologie emergenti, Gyhra ha posto l’attenzione sull’Intelligenza Artificiale, una risorsa che può essere strumento di “pace” e “sicurezza”, ma anche una potenziale minaccia “esistenziale” per l’umanità. L’impiego di sistemi di controllo a distanza per operazioni militari, ha sottolineato, può ridurre la “percezione della devastazione” causata dalla guerra, come già evidenziato dalla recente nota sul rapporto tra IA e intelligenza umana.

Opacità giuridica e interrogativi etici

Un ulteriore pericolo è rappresentato dall’uso crescente delle “tecnologie autonome”, che rischiano di delegare le decisioni militari alle macchine, sottraendole alla supervisione umana. Ciò genera “opacità giuridica” e gravi interrogativi etici. In questo contesto, monsignor Gyhra ha menzionato i sistemi d’arma letali autonomi (Lethal Autonomous Weapon Systems – LAWS), capaci di identificare e colpire obiettivi senza intervento umano diretto. “Nessuna macchina dovrebbe mai scegliere se togliere la vita a un essere umano”, ha ribadito .

Lo sviluppo umano integrale al centro

Le preoccupazioni espresse dalla Santa Sede, ha chiarito il presule, non mirano a frenare il progresso, ma a incoraggiare una ricerca e uno sviluppo etico delle nuove tecnologie. L’obiettivo è integrarle in un “quadro più ampio”, che non si limiti alla loro utilità ed efficienza, ma che ponga al centro la promozione dello sviluppo umano integrale.

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

27 febbraio 2025, 11:40