Meeting, Benanti: riflettere su IA per il ruolo dell'umano nei processi produttivi
Guglielmo Gallone - Rimini
L’intelligenza artificiale aiuta a pensare di più o, con le sue capacità in evoluzione, rischia di farci pensare di meno? Il digitale è solo uno strumento o sta diventando un ambiente parallelo alla realtà? Come l’essere umano può abitare il futuro senza rinunciare a sé stesso, alla sua libertà di pensiero e di azione? Sono queste le domande che hanno animato i panel svoltisi in questi giorni alla quarantaseiesima edizione del Meeting di Rimini e dedicati in particolare all'Intelligenza Artificiale. La cui peculiarità è stata quella di non parlare in termini drammatici di un’invenzione di cui non si può fare a meno.
Come si è parlato di IA a Rimini
Si è partiti domenica mattina con La metrica del pensiero: come riconoscersi nell’era dell’AI, che ha visto confrontarsi figure diverse come Natale Brescianini, monaco e formatore aziendale, Lucia Cenetiempo, creative technologist esperta di Gen AI, insieme a Pasquale Viscanti e Giacinto Fiore, fondatori di AI Week, guidati dal moderatore Paolo Casadei. L’incontro ha messo al centro la specificità del pensiero umano in un contesto in cui gli algoritmi eseguono e predicono, ribadendo che la profondità, e non la velocità, resta la misura del pensare. Il giorno dopo il panel Intelligenza artificiale nei servizi alla persona: storie di collaborazione tra esseri umani e algoritmi è stato dalle testimonianze di Michela Coccia della Fondazione Serena – Centro Nemo, di Ilaria Gallucci, Beatrice Pini e Marcello Naldini de Il Faro Coop Sociale, e di Lucia Migliorelli di VRAI Lab, sotto la guida di Stefano Gheno. L’accento è stato posto sull’uso dell’AI in ambito sanitario e assistenziale, mostrando esperienze concrete in cui le tecnologie digitali affiancano operatori e professionisti per migliorare inclusione, cura e benessere, con un’attenzione particolare agli aspetti etici e alla tutela dei dati sensibili. Infine, tra gli eventi conclusivi dell'ultmo giorno, il confronto La legge dell’AI in cui giuristi ed esperti come Antonino Rotolo e Giovanni Ziccardi, insieme all’imprenditore Federico Bonomi, moderati da Erik Longo, hanno messo al centro l’AI Act europeo e i suoi risvolti sulla responsabilità, la trasparenza e la protezione dei diritti fondamentali. Un percorso che, dalla riflessione filosofica alla sperimentazione sociale fino alla regolazione giuridica, ha delineato le molteplici sfide che l’intelligenza artificiale pone al nostro tempo.
Tra deserto digitale e nuove costruzioni
Nel mezzo, un incontro particolarmente partecipato è stato quello dedicato all'intelligenza artificiale e al futuro dell'uomo "tra deserto digitale e nuove costruzioni". In particolare, Fabio Mercorio, professore di Computer Science presso l’niversità Milano-Bicocca e moderatore dell’evento, ha chiarito fin da subito che «non si può parlare di intelligenza artificiale senza partire da almeno quattro passaggi. Il primo: è aumentata la capacità di calcolo dei nostri dispositivi e la potenza dei nostri devices. Secondo: stiamo connettendo sempre più il globo, persino coi cavi sottomarini. Questo, ecco il terzo passaggio, ha portato alla generazione di dati: noi utilizziamo i dati ma siamo anche produttori di dati. Ora si è resa più impellente un’esigenza: guardare dentro questi dati. I ricercatori hanno sviluppato sempre più algoritmi capaci sia di fare apprendimento automatico basato su reti neutrali, sia di leggere contemporaneamente più blocchi di testo. Ecco l’ultimo passaggio, quello del digitale generativo, che non ripete ciò che ha visto, bensì prova a predire la parola mancante. Noi diamo un input e vediamo cosa può generare la macchina».
Benanti, "in che misura noi umani dobbiamo mettere limiti alla macchina"
Messi di fronte a questo scenario, è ovvio che l’IA può spaventare perché fa ciò che solo noi pensavamo di fare: generare contenuto. Allora quali sono le sfide imminenti? Secondo Paolo Benanti, frate francescano esperto di bioetica, etica delle tecnologie e human adaptation, membro New Artificial Intelligence Advisory Board dell’ONU, i punti su cui riflettere sono due e riguardano l’umano: «Ciò che ci ha permesso di cambiare il nostro posto all’interno della gerarchia animale è la capacità di cooperare, che emerge dalla consapevolezza di avere una mente e di poterla sfruttare. Oggi questa consapevolezza è stata applicata nei confronti di una macchina. Una macchina sofisticata, capace di avere linguaggio e di interagire, producendo nell’essere umano l’idea che la macchina pensi, abbia una soggettività. E che, dunque, ci si possa affezionare alla macchina. Il primo punto è questo: in che misura noi umani dobbiamo mettere dei limiti alla macchina? Di riflesso, il secondo punto: come dobbiamo ridisegnare il ruolo dell’umano nei processi produttivi?».
Quali sfide per l'uomo
E proprio sulla dimensione umana e sociale si è concentrato Sergio Belardinelli, professore di sociologia dei processi culturali presso l’università di Bologna ed editorialista del quotidiano Il Foglio, secondo cui «l’IA oggi è insieme un problema e un’opportunità per riproporci almeno tre questioni: impoverimento del linguaggio, distruzione del senso della realtà, distruzione del senso della verità. Sono temi con cui ci confrontiamo da secoli, ma oggi l’IA ci costringe a pensare e a ragionare su come funziona la nostra mente. Funziona come la macchina? E, di più, è giusto realizzare tutto ciò che è tecnicamente possibile? Come conserviamo il controllo di una macchina formidabile? Questa sfida ci costituisce, ci riguarda come esseri umani. La macchina si sta rivelando molto più intelligente di noi a risolvere certi problemi. Secondo vari studi, ChatGPT è una risorsa per chi ha coltivato il linguaggio culturale, per chi sa già scrivere. Tanto più ci si coltiva, tanto più l’IA è una risorsa. Il problema allora non è “sì però”; l’unica questione urticante è “se però”, cioè se questa macchina diventa più forte».
Siamo in un territorio nuovo
Ma come facciamo ad affrontare questo ipotetico scenario? Anzitutto, secondo Nello Cristianini, professore di Intelligenza Artificiale all’università di Bath, «noi abbiamo il dovere di comprendere come si sviluppa una macchina. Non ci possiamo fidare senza sapere come funziona e come pensa l’IA. Su questo, stiamo facendo progressi, ad esempio capendo che l’IA non è un pappagallo. Ora dobbiamo fare un passo avanti: smettere di dire che questo sia tutto “un grande imbroglio”. Dobbiamo capire che forse per un certo tipo di contenuti non ci siamo evoluti e che quindi la macchina può fare cose al posto nostro. È avvenuto cent’anni fa con la meccanica quantistica. E se oggi abbiamo una macchina in grado di confrontare gli effetti provocati dalla modifica di un genoma, stiamo entrando in un mondo in cui le previsioni avvengono, le spiegazioni sono scritte sì in modo incomprensibile ma possono essere declinate. Siamo in un territorio nuovo. È normale avere ansia, ma la sfida immediata ha l’aspetto di un’opportunità: costruire gli strumenti culturali per vivere in questo mondo. Conoscere, studiare, partecipare: dipende solo da noi».
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui