Benanti: un documento che aiuta a farci le domande giuste

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Conto e carta

difficile da pignorare

 


A colloquio con l’esperto di etica delle tecnologie che studia l’impatto dell’intelligenza artificiale sull’informazione: la Nota dei due Dicasteri invita alla responsabilità

Andrea Tornielli

«Un documento che ci dice: questo forse è il tempo di farsi delle domande prima ancora di dare risposte». Con queste parole fra’ Paolo Benanti – docente alla Gregoriana, esperto di bioetica ed etica delle tecnologie, presidente della Commissione per lo studio dell’impatto dell’intelligenza artificiale sul giornalismo e l’editoria della Presidenza del Consiglio italiana – “fotografa” la Nota Antiqua et Nova dei Dicasteri della Dottrina della fede e della Cultura e l’Educazione sul rapporto tra intelligenza artificiale e intelligenza umana. Così lo commenta con i media vaticani.

Finanziamo agevolati

Contributi per le imprese

 

(LEGGI QUI IL TESTO INTEGRALE DELLA NOTA “ANTIQUA ET NOVA”)

Qual è secondo lei la novità di questo documento?

È una presa di coscienza da parte del pensiero credente che ha anche come fine quello di accompagnare la Chiesa nella vita della società. Più noi ci facciamo domande su questa macchina in grado di surrogare parte del decidere umano, più ci stiamo inevitabilmente facendo domande sull’identità stessa dell’essere umano e sull’unicità che lo caratterizza, cioè su ciò che ci fa creature in relazione con un Creatore. La vera novità di questo testo è metterci nella prospettiva corretta per farci delle domande sulla nostra identità e sulle nostre capacità di poter contribuire alla custodia e alla coltivazione del mondo affidateci dal Creatore.

Così l’intelligenza artificiale diventa occasione per farsi delle domande su ciò che realmente siamo noi?

Carta di credito con fido

Procedura celere

 

Questa è una grandissima novità: pensiamo che fino a 10/15 anni fa questo tipo di domanda sull’umano sembrava eclissata. Avevamo decisioni politiche che di fatto equiparavano alcune specie di grandi scimmie alla persona umana o che negavano l’identità di persona all’embrione o a chi vive la fase terminale della propria vita. Quella che sembrava una questione da archiviare nel passato, improvvisamente, grazie all’opera dell’uomo, torna prepotentemente nel dibattito pubblico e nell’interesse globale. Questa domanda ha una duplice istanza: da una parte antropologica, come viene ben sottolineato dal documento; dall’altra ha senz’altro delle conseguenze sociali e quindi possiamo già immaginare che sarà sviluppata nell’alveo della Dottrina sociale della Chiesa.

Padre Benanti ospite degli studi dei media vaticani

Padre Benanti ospite degli studi dei media vaticani

Che differenza c’è fra la cosiddetta intelligenza artificiale e l’intelligenza umana?

Proprio la natura umana – difficilmente contenibile all’interno di una definizione o un perimetro predeterminato – ci porta a dire che quando parliamo dell’uomo parliamo di un qualcosa che è più facile descrivere in tante sue dimensioni. Se noi pensiamo a come i greci parlavano dell’intelligenza, dobbiamo riconoscere che i vocaboli erano “plurali”: Ulisse viene definito “astuto”, “intelligente”, con il vocabolo metis, che indica una forma di intelligenza capace di trovare soluzioni ai problemi pratici. Quando invece si parla dell’intelligenza capace di cogliere il senso del tutto, i greci usano la parola nous. Ecco, già nelle matrici del pensiero occidentale abbiamo un’intelligenza umana plurale, capace di andare in più direzioni. L’intelligenza artificiale non surroga tutte queste forme di intelligenza: è molto brava a vincere dei giochi, a trovare delle soluzioni, è capace di un grande metis. Ma il nous, ciò che cerca il senso del tutto ed è capace di orientare le nostre vite verso un orizzonte, verso un futuro o anche verso la trascendenza, questo è solo umano.

 Che cosa dobbiamo temere dalle applicazioni dell’intelligenza artificiale?

Se posso fare una battuta, direi che la prima cosa da temere è la stupidità naturale. Perché la macchina non si mette da sola in grado di surrogare: siamo sempre noi che, a seguito di calcoli o di tentativi di ottimizzare alcuni processi, potremmo utilizzare la macchina facendole scegliere al posto dell’uomo. E una macchina così potente, in grado di scegliere tra infinite opzioni in frazioni di secondo, non sempre è in grado di surrogare quella che umanamente si chiama decisione, cioè qualcosa di connesso alla sapienza. Qui c’è tutta l’ambivalenza dell’IA in grado di fare cose con grande velocità ed efficienza, mentre l’uomo invece è chiamato a interrogarsi sul senso. Forse potremmo o dovremmo temere tutte quelle scelte che non accedono a decisioni. Pensiamo, ad esempio, all’ambito medico: una diagnosi non è mai semplicemente una scelta tra terapie, ma una presa in carico di un’esistenza umana da parte di un’altra esistenza umana che implicitamente gli fa una promessa di cura. Dobbiamo temere tutte quelle situazioni in cui andremmo a vivere un’umanità diminuita per consentire una “macchinalità” aumentata. E promuovere invece tutte le applicazioni che mantengono viva questa responsabilità umana.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Il documento insiste molto sulla responsabilità umana e sulla necessità di rendere conto della decisione presa. Perché?

Ci sono due grandi filoni che danno vita alla bella risposta presente in questo documento. C’è un filone che parte dall’ottica di fede e si interroga su quale sia la specificità umana dal punto di vista della coscienza. La costituzione conciliare Gaudium et Spes ci parla di quel luogo intimo dentro di noi dove noi sentiamo una voce che in alcuni momenti ci dice: fai questo ed evita quest’altro. È il sacrario dove l’uomo avverte la voce di Dio. Ecco la matrice della responsabilità. Ma all’interno di questa consapevolezza credente c’è anche tutta una consapevolezza dell’effetto di sottrarre responsabilità al decidere umano. Grandi scrittori come Hannah Arendt hanno parlato di come, nei grandi eccidi del secolo scorso, si è cercato di sottrarre responsabilità al decidere umano per diventare parte di un ingranaggio che porta alla massima disumanizzazione personale e sociale. Queste due capacità umane, fede e ragione, dandosi la mano, possono aiutarci a vedere come innovare l’intelligenza artificiale così che possa diventare davvero fonte di sviluppo umano.

Sconto crediti fiscali

Finanziamenti e contributi

 

L'intervista a padre Benanti del direttore editoriale dei media vaticani, Andrea Tornielli

L’intervista a padre Benanti del direttore editoriale dei media vaticani, Andrea Tornielli

Purtroppo continuiamo a vedere il ruolo delle armi autonome. Che cosa possiamo dire dell’applicazione dell’intelligenza artificiale alla guerra?

Pensiamo a noi 60.000 anni fa, quando in una caverna abbiamo preso in mano per la prima volta una clava. Era un utensile per avere più noci di cocco e un’arma per aprire più crani di altre persone. Tutte le volte che siamo davanti a una tecnologia, siamo davanti alla tentazione di trasformare un utensile in un’arma. Ma siamo anche inseriti in una storia di salvezza – ricordiamo il profeta Isaia – nella quale le armi possono diventare utensili da usare per coltivare, per sfamare e dare vita. In questa nostra storia di peccato e conversione, chi fa la guerra ha la fortissima tentazione di usare strumenti con una tecnologia così potente. Vorrei ricordare che l’IA non è la prima forma di tecnologia autonoma utilizzata in guerra. Pensiamo alle mine anti-uomo: sono autonome! Un sistema di intelligenza artificiale lo possiamo definire qualcosa che può prendere dall’umano un fine, e poi adegua i mezzi per ottenere quel fine. Mai come in guerra vediamo però che i mezzi non sono tutti uguali: a partire dalla grande tragedia atomica, ci siamo resi conto dell’esistenza di mezzi da evitare ad ogni costo. Una macchina, a differenza dell’essere umano, non si stancherà mai di perseguire il suo obiettivo e quindi potrebbe non esserci mai una tregua se ci si affida solo alle macchine. Quanta più è la capacità dell’uomo, tanto più radicali si fanno le domande alle quali dobbiamo rispondere.

Intervenendo al G7 dello scorso anno, Papa Francesco ha detto che mai dovrebbe essere lasciata a una macchina la decisione di togliere una vita umana.

Una voce profetica quella del Papa. Una voce fortissima che indica una direzione. Abbiamo bisogno di un’estrema precauzione, o meglio, per usare le parole del documento, di un’estrema responsabilità.

L’intelligenza artificiale oggi consente di falsificare la rappresentazione della realtà. Pensiamo alle immagini false o ritoccate sempre meno distinguibili da quelle vere. O alla diffusione massiccia delle fake news. Come possiamo contrastare queste derive?

Sembra che per qualcuno la verità sia diventata qualcosa di secondario e che siano possibili narrazioni completamente sganciate dai fatti. Tutte le democrazie occidentali si fondano su una premessa fondamentale: esse possono esistere come democrazie se le persone sono in grado di farsi un’opinione corretta sui fatti. Quindi la democrazia dà al giornalista quasi un ruolo di civil servant: la sua professionalità è simile a quella dello scienziato che cerca la verità o del giudice che cerca di appurare i fatti. L’intelligenza artificiale potrebbe rendere molto meno costosi alcuni processi di produzione di alcuni tipi di informazione, ma non per questo sarebbero più veri né più utili. Per vivere in una democrazia abbiamo bisogno del giornalismo professionale, e il giornalismo professionale ha bisogno di un settore industriale. Tutto ciò può essere danneggiato economicamente, o distrutto nella sua capacità, da un’intelligenza artificiale nelle mani sbagliate o con finalità sbagliate.

Come tutelarci?

Il documento ci ricorda la categoria chiave della responsabilità e ci sono forme di responsabilità che nello spazio pubblico assumono la consistenza del diritto. Forse è arrivato il momento di insistere perché esista un diritto “cognitivo” delle persone: quello di sapere quali contenuti sono stati elaborati da un essere umano che ci mette la sua responsabilità professionale, e quali invece sono stati prodotti da una macchina. Dobbiamo forse definire un paio di guardrail per tenere in carreggiata il servizio alla verità dell’informazione e del giornalismo. Il documento ci dice che questo forse è il tempo di farsi delle domande, prima ancora di dare risposte.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Dilazione debiti

Saldo e stralcio

 

Source link