Instagram e la storia di un patibolo redento

 

Solo costruendo un mondo, una cultura ed un processo educativo che ridia al limite, alla fragilità, alla gentilezza, al difetto un tratto di misericordia possiamo pensare di avere un futuro




Instagram fa male ai giovani. In molti lo hanno denunciato, anche su queste pagine, ma oggi, grazie ad una inchiesta del Wall Street Journal, abbiamo prova che le piattaforme lo sanno bene. Emerge così, i dati sono del marzo 2020, che circa un terzo delle ragazze adolescenti a disagio con il proprio corpo ritenga che Instagram le faccia sentire peggio. Per il 40% degli adolescenti britannici e statunitensi la percezione di non essere abbastanza attraenti è nata proprio con l’utilizzo del social. La piattaforma minimizza dichiarando che i risultati pubblicati sono parziali e che sono attive diverse campagne per ovviare a queste situazioni, ma la questione resta.

Una doppia questione: da una parte sugli esiti dell’uso massivo dei social da parte dei più giovani, dall’altra la responsabilità sociale delle piattaforme rispetto a questi esiti. La risposta è una solamente, e non è di tipo giuridico. Non si tratta di mettere degli argini, di prevedere delle pene o delle sanzioni. La risposta è esclusivamente di tipo educativo, sui due fronti. In un mondo globale la responsabilità del mondo è globale. Se questo vale ed è finalmente socializzato rispetto all’ambiente inteso come biosfera lo stesso vale per l’ambiente digitale, l’infosfera. E va finalmente socializzato. È ipocrita far denaro sulle spalle dei più fragili facendo un po’ di lavaggio di coscienza con campagne mirate ad alcuni fenomeni. La questione è più ampia, radicale. Risiede innanzitutto negli algoritmi stessi che hanno come obiettivo rendere dipendenti gli utenti, poi è incardinata nelle architetture del sistema che rafforzano stereotipi e conferiscono obbiettivi precisi. Ed infine in un processo in cui tanto di detentori delle piattaforme quanto gli utenti, sono coinvolti in una costruzione di mondi fittizi dove la manipolazione della realtà sembra essere il solo modo per accettarla la realtà.

Pochi giorni fa la Chiesa cattolica ha festeggiato liturgicamente l’esaltazione della croce. Se la vediamo da vicino è una festa apparentemente mostruosa. Esaltare un patibolo è folle. Immaginate se al posto della croce, segno e simbolo ormai redento e dal significato mutato, noi festeggiassimo l’esaltazione della sedia elettrica, l’esaltazione del cappio, l’esaltazione della mannaia del boia. Follia. Ma follia non è quando si parla della croce perché, anche culturalmente, essa è diventata segno di misericordia, di condivisione, di amore sino al sacrificio. Segno di pace e di benevolenza. Per i credenti perché a morirci sopra è Dio stesso, per chiunque altro perché in quel segno si può riconoscere il confine di un amore innocente e sconfinato.

Il punto, tornando alla notizia che commentiamo, è il medesimo. Solo costruendo un mondo, una cultura ed un processo educativo che ridia al limite, alla fragilità, alla gentilezza, al difetto un tratto di misericordia possiamo pensare di avere un futuro. L’economia delle piattaforme sociali è basata sul consenso di coloro che vi abitano, di coloro che conferiscono valore pubblicando di se stessi o di altri. È una economia molto fragile, non perché immateriale, ma perché basata sulla volubilità delle persone e delle società.

Il potere di acquisto di chi oggi le detiene è tale da potersi permettere di comprare gli eventuali competitori, Facebook ed Instagram non nascono come figli di un medesimo padre, diventano fratelli solo dopo che il primo ha sborsato miliardi per comprare il secondo verso cui le giovani generazioni stavano confluendo. Questo processo è difficilmente contrastabile, ma si tratta di giganti con i piedi di argilla. È pur vero che possono comprarsi campagne giornalistiche per continuare a sostenere la loro popolarità, ma è anche vero che il sistema, da loro stessi costruito, dà voce a chiunque, e certe voci possono correre in fretta, basta solo che vi siano alternative migliori che, prima o poi, non si faranno comprare. Ma lo scontro non è l’unica soluzione. Le piattaforme rafforzano di stereotipi. Ma non è scritto da nessuna parte che gli stereotipi debbano essere solo negativi. Perché non fare alleanza per rafforzare stereotipi che siano virtuosi, che siano positivi, che siano educativi? La potenza computazionale per farlo esiste. Qualcuno obbietterà che vende sempre di più la cronaca nera, ma la domanda, più seria, è se per fare denaro non ci stiamo vendendo una generazione intera rendendola più fragile ed ansiosa di ogni precedente generazione. Una generazione che potrebbe giustamente dire basta. Alleati, non nemici, potere a servizio, non solo dei bilanci. Utopia? Sogno? Delirio? Un patibolo è diventato segno di vita. È possibile, è già successo.

Qui il post originale

Cristianesimo e intelligenza artificiale: quale nesso tra fede e tecnologia

 Quando si parla di etica dell’intelligenza artificiale, questo significa l’onestà e la chiarezza nel definire non solo quello che l’AI è, ma anche quello che non è e che non sarà. Un’etica che comporti una tecnologia che generi inclusione e comunione. Ma come si collega l’AI e la Bibbia?

 

Il binomio Cristianesimo e intelligenza artificiale si riferisce a un argomento che non può essere contenuto nelle poche righe di questo contributo, ma rivela – il verbo è scelto – l’esistenza di un nesso attendibile dal punto vista credente e culturale tra la fede in Gesù Cristo e l’intelligenza artificiale.



Dobbiamo partire dall’inizio: in teologia ciò che è affermabile di Dio e segnatamente di Cristo, deve fare sempre i conti con la Scrittura, essa rappresenta il vincolo di ortodossia di ogni ragionamento e ipotesi articolabile. Dal punto di vista epistemologico non deve stupire questo atteggiamento: ogni scienza nasce da alcuni a priori, da assiomi che la fondano. La teologia non si distingue in questo. Dobbiamo quindi indagare se esista nella Scrittura un nesso tra quanto è di Cristo e quanto noi sappiamo rispetto all’intelligenza artificiale o, per meglio favorire la comprensione, più in generale rispetto alla tecnologia.

 

La Bibbia e le intelligenze artificiali

È importante notare come nella Bibbia, a differenza di altre tradizioni religiose, non vi sia alcun accenno a intelligenze artificiali, manufatti pensanti o a robot. A differenza della mitologia greca (Prometeo, Pandora, Talos, gli androidi dell’Iliade e dell’Odissea), di quella ebraica (Golem) o di quella cinese taoista (Libro del Vuoto Perfetto) non c’è traccia di una tecnologia che sostituisce l’essere umano, di una tecnologia post umana. Ma vi è invece tanta tecnologia, tantissima, ed in momenti e ruoli strategici. Il punto centrale della vicenda divino-umana di Gesù è, come sappiamo, la sua morte di croce a cui fa seguito la risurrezione. È la Pasqua cristiana, il passaggio dalla morte alla vita che si innesta nella Pasqua ebraica che ricorda il passaggio dalla schiavitù d’Egitto alla vita nella terra promessa. In entrambi i casi la tecnologia è sullo sfondo, nel senso che letteralmente è il foglio sopra il quale si “scrive” la salvezza. Nella Pasqua ebraica l’angelo sterminatore, che conclude le piaghe d’Egitto, risparmia e dunque salva quelle famiglie la cui porta – tecnologia – è cosparsa del sangue dell’agnello del sacrificio. Sarà il sangue di un altro agnello sacrificale, Cristo, che salva tutta l’umanità da ogni forma di male distruggendo il peccato, quel sangue è sparso su di una croce, nuovamente una forma di tecnologia.

La tecnologia e l’insegnamento di Cristo

Cosa possiamo leggere in questi segni? Che la vita piena dell’essere umano nasce dall’alleanza tra Dio e l’essere umano anche là dove egli si esprime tecnologicamente, nella sua cultura tecnologica. A rafforzare questa tesi è lo stesso mestiere di Cristo che, figlio del falegname è falegname egli stesso. Il termine greco usato nei vangeli è anche più che falegname: è carpentiere, scalpellino, artigiano: un ventaglio semantico che raccoglie tutti i mestieri che al tempo di Gesù erano i mestieri tecnologici. Non possiamo in questa sede che fermarci qui e dire che il cristianesimo, sin nella vita di Colui che ne è il fondamento, ha un legame con le tecnologie e con il senso che esse possono rappresentare. Tornando dunque all’intelligenza artificiale ed il suo rapporto con il Cristianesimo possiamo qui sottolineare un aspetto fondativo che si desume dall’insegnamento e dalla vita concreta di Cristo.

La condizione per essere suoi discepoli Gesù la esplicita così: “Se qualcuno vuol venire dietro di me rinneghi sé stesso, prenda la sua croce e mi segua”. Colui che decide di seguire Cristo sceglie un distacco dalla propria vita che dovrà mantenere nel concreto e nel corso dell’esistenza sino all’ineludibile morte. Questo atteggiamento garantisce la vita eterna nel futuro, un perdere per acquistare dunque, ma per un bene che si consuma nella storia. Brevemente il significato della pericope, soprattutto nel Vangelo di Marco sta a dire: Cristo ha portato un messaggio di riconciliazione tra Dio e l’umanità e per l’umanità, affinché viva una fratellanza ed una comunione piena. Questo messaggio è osteggiato e sempre lo sarà nella storia perché nella divisione tra Dio e l’essere umano e tra gli esseri umani tra loro ci sarà chi ne trarrà vantaggio. Quindi essere discepoli significa spendere la propria vita affinché personalmente e come umanità vi possano essere le condizioni di comunione tra l’essere umano e Dio e, a partire da questa comunione fontale che sostiene nell’amore e nella pace, vi possa essere comunione degli esseri umani tra loro.

Quale etica per l’intelligenza artificiale

Costi quello che costi, anche la vita, come dimostra la storia di sempre in cui i cristiani sono la categoria sociale più perseguitata e che paga il più alto prezzo di sangue, sia ieri sia purtroppo anche oggi. Quale etica dell’intelligenza artificiale ne consegue? Un’etica che comporti una intelligenza artificiale che generi inclusione e comunione. Una potenza computazionale che è servizio, che non diventi un idolo a cui asservire ogni attività umana. Un’Ai per l’uomo che non esclude l’umano, un’AI che resta mezzo e non diventa fine, uno sviluppo ed una ricerca che siano antropici – cioè custodi dell’umano anche nella sua integrità. La cristologia richiama anche la comunione con Dio che non può essere confusa con una generica comunione con un tutto cosmico o che si sublima nella comunione con l’umanità. Rispetto all’etica dell’AI questo significa l’onestà e la chiarezza nel definire non solo quello che l’AI è, ma anche quello che non è e che non sarà. In un clima mistico religioso in cui si confonde spesso la materia con il trascendente e l’immateriale con il metafisico, urge dare a Cesare ciò che è di Cesare e a Dio ciò che è di Dio.

Qui per il post originale

Luca Peyron al Rotary Firenze

 LUNEDÌ 13 SETTEMBRE 2021

Riunione conviviale con consorti ed ospiti. Con Niccolò Abriani e Don Luca Peyron - FirenzeVilla Viviani, via Gabriele D'Annunzio, 230 - 20:00

Niccolò Abriani, Professore ordinario di Diritto commerciale presso l’Università di Firenze e Don Luca Peyron, Direttore della Pastorale Universitaria della Diocesi di Torino e docente di Teologia dell’Innovazione all’Università Cattolica di Milano, dialogheranno su Intelligenza Artificiale e l’impatto dei cambiamenti tecnologici sulla società”.

Il caso del brevetto intestato ad un robot e i limiti della tecnica

È successo, o perlomeno qualcuno ha dichiarato che possa succedere. L´ufficio brevetti del Sud Africa, seguito pochi giorni dopo dall Australia, ha ufficialmente concesso che una intelligenza artificiale possa essere riconosciuta come inventore in un deposito di domanda per brevetto d invenzione. La domandaè stata presentata da un team internazionale di consulenti in proprietà industriale e ricercatori dell Università del Surrey ed ha per oggetto un contenitore per alimenti basato su di un sistema geometrico a frattali.

La titolarità di un brevetto, chi può farne uso esclusivo e trarne vantaggio, può oggi essere nella legislazione internazionale ed in quelle di tutte le nazioni del mondo, una persona fisicao giuridica. Ma nel medesimo quadro legislativo l inventore, o gli inventori, debbono essere persone fisiche, esseri umani, anche se lavorano a tempo pieno per una impresa, anche se il loro lavoro è remunerato espressamente al fine di produrre invenzioni brevettabili. Il diritto ad essere riconosciuto autore è da sempre considerato inalienabile, a differenza di quello legato allo sfruttamento economico. La ragioneè dunque squisitamente di carattere per così dire umanistica, filosofica. Nonè una ragione commerciale, ma legata alla dignità delle persone ed al carattere eminentemente umano dell inventare, del creare. Si tratta del cosiddetto diritto morale, sancito nel nostro ordinamento dall art 62 del codice del diritto industriale o l articolo 4ter della Convenzione di Parigi per la Proprietà industriale del 1883.

L AI di cui parliamo è stata creata da Stephen Thaler ed ha un nome, DABUS, che sta per «device for the autonomous bootstrapping of unified sentience». Il brevetto è stato depositato anche negli Usa, Uk e in Europa edè stato per ora formalmente rifiutato perché non corrisponde, appunto, alla forma prescritta che deve indicare una persona umana quale inventore, la sola – secondo la modulistica – che abbia una capacità mentale di produrre una invenzione e che sia giuridicamente imputabile del diritto evocato. Ma il rifiuto formale era scontato, solo in un quadro più ampio, dopo i ricorsi prevedibili, sarà possibile dire se effettivamente ci troviamo di fronte ad un passaggio storico. Comunque andràa finire, il mondo della proprietà industriale era quello che prima o poi si sarebbe dovuto occupare della questione e delle sue ricadute. Il vero banco di prova della rivoluzione industriale è quello delle architetture giuridiche dei Paesi e dei trattati internazionali, un po comeè avvenuto per i diritti civili. Solo se il diritto fotografa in qualche modo la società è possibile dire che essa è davvero cambiata ed ha assunto culturalmente in sé un nuovo sentire. 

Tra le molte considerazioni che possiamo fare credo che una sia decisiva e dirimente. La tecnica deve avere un limite? Essa nasce per superarli i limiti, è nativamente illimitata e quindi solo l essere umano, e lui soltanto, deve decidere se porreo meno dei limiti. La tecnica non esiste come essere a se stante, è un concetto che noi usiamo sempre più spesso come se fosse un ente autonomo, senziente e con dei piani precisi, ma è una finzione linguistica. O forse possiamo scegliere che non lo sia più. Qui sta la questione, filosofica, teologica e dunque culturale ed infine giuridica. Il piano del giudizio che siamo chiamati a dare non è nell ordine morale del bene e del male. Non dobbiamo decidere che sia bene o male che un AI sia imputabile di rapporti giuridici, la questione, io penso, sia altra e su di un altro piano. Dobbiamo decidere, edè oggi, quale sia il fine ultimo della tecnica, anzi della tecnologia ossia la tecnica che è diventata un ambiente di vita entro cui ci muoviamo e che determina la cultura entro la quale vediamo ed interpretiamo il mondo e noi stessi, l umano. A mio giudizio la tecnica deve essere sempre connessa all essere umano, non può esistere una tecnica ed una tecnologia che non abbiano l umano come fine, l umanizzazione dell umano come scopo, come teleologia, oserei dire quasi escatologia. Non si tratta semplicemente di mettere l umano al centro, nel senso di far sì che la tecnica non sia per lui dannosa nei molti modi in cui il danno può essere declinato. È di più, è una scelta di campo che incide sui processi economici, finanziari, sociali e giuridici. Ma l essere umano è dignità incomparabile, teologicamente divina, laicamente universale. Quindi no, una intelligenza artificiale non può essere titolare di brevetto per invenzione perché non ne ha la dignità, perché permetterlo significa calpestare le ragioni per cui il diritto esiste che non sono l affidabilità del mercato, ma la tutela di chi noi siamo, a partire dai più fragili. Congratulazionia Stephen Thaler, DABUS è solo un acrostico e non me ne vorrà, perché neppure sa cosa possa significare essere risentiti.

Qui l´articolo originale

The benefit of doubt

Maize 

is a triannual magazine about technology and the future, and this issue is all about doubt. The idea, as editor-in-chief Matteo Scanni writes in his opening editorial, is to defend the “art of doubting” as something necessary to combat disinformation. The magazine is a kind of defence of uncertainty.

There are less and more engaging interpretations of this theme. Articles by business leaders (including the president and CEO of Yves Saint Laurent) offer relatively dry takes on the trials of decision making. More interesting are a series of left field contributions, including a double-page spread devoted to moments of doubt in cinema (eg. Sophie’s Choice), and a history of the crossword by Italian cartoonist Paolo Bacilieri, partly told in the form of a graphic novel.

In my favourite piece in the issue, Don Luca Peyron, a former lawyer appointed by the Vatican to try and equip the catholic church for the digital age, is interviewed. Questions include “How can one encounter God today”, and the answers are lengthy, and often surprisingly funny (praying online is advised). Doubt is shown, on these pages, to be something both creative and oddly desperate.

Qui il post originale

I giovani leader hanno più fiducia negli algoritmi che nella politica

 

Cosa emerge da una consultazione mondiale che ha interessato più di due milioni di giovani in tutto il mondo.



Basta umani, vogliamo le macchine. È quanto emerge da una consultazione mondiale pubblicata in questi giorni che ha interessato più di due milioni di giovani in tutto il mondo, in 150 città di 180 nazioni diverse, giovani che appartengono ad una rete, i global shapers, legata al World Economic Forum. Giovani che la sanno già lunga, giovani che avranno le mani in pasta, perché già un po’ le hanno, con i giusti contatti e soprattutto con le persone giuste ad ascoltarli. Ho partecipato insieme ad alcuni amici dell’Apostolato Digitale ad un loro forum sui temi della trasformazione digitale ed ho colto interesse, curiosità e voglia di fare. Dunque l’espressione secondo la quale hanno più fiducia negli algoritmi che nella politica mi fa pensare, ci deve far pensare. Si esprimono così: “I giovani ritengono che abbiamo una grave crisi politica. Credono che le fratture sociali che si sono verificate siano manifestazioni di un problema politico di fondo. Per i giovani le preoccupazioni per la corruzione e la leadership politica stantia sono diventate priorità urgenti se si vuole che mantengano fiducia nel sistema politico. Il sondaggio ha rilevato che i giovani avrebbero maggiori probabilità di fidarsi di un sistema gestito da una intelligenza artificiale piuttosto che da esseri umani.

Per risolvere il problema, si chiedono maggiori investimenti in programmi che aiutino le voci progressiste giovanili a prendere parte attiva nel governo e diventare influenti policy maker”. Insomma meglio le macchine di voi, in alternativa noi al vostro posto, magari - aggiungo io - assistiti dalle macchine. L’arroganza dell’affermazione è tipicamente giovanile, e questo non ci disturba affatto anzi ci sembra un segno positivo di vitalità positiva. L’affermazione piuttosto ci restituisce uno spaccato molto interessante della cultura che abitiamo e che per buona misura condivide oggi il 65% del pianeta (tanti sono i millennials e i nativi digitali messi insieme). L’affermazione algoritmica mi fa battere il cuore e le tempie. Doppiamente intesa: usare l’algoritmo per una denuncia così violenta e paradossale, ma nello stesso tempo credibile, una minaccia che avvertiamo come seria, una alternativa in fondo percorribile. A nulla valgono le narrazioni distopiche da 2001 Odissea nello spazio a Black Mirror. Anzi, la loro grottesca caricaturalità in fondo ha generato nei giovani la convinzione che il lupo non esiste e nel bosco si possono portare ceste di mele senza paura. La nostra generazione ha così deluso quelle successive da far loro pensare che una macchina sia preferibile all’umano? Se vi chiedete cosa non ha funzionato siete in errore: ha funzionato tutto benissimo ed è per questo che siamo qui. Una cultura efficientistica e tecnica, una narrazione economica di salute pubblica e salvezza digitale, una martellante campagna a detrimento dell’umanistico in favore dell’informatico hanno generato i frutti sperati. Vi sarà forse sfuggita la notizia per cui la Howard University di Washington, università che ha formato la vicepresidente degli Stati Uniti Kamala Harris, ha deciso di smantellare il corso di studi classici. Perché la macchina non può fare politica? Per la medesima ragione per cui i governi esclusivamente tecnici hanno sempre deluso e fallito.

La complessità sociale non si può governare con la semplificazione algoritmica, perché l’essere umano non è semplice causalità numerica e dunque non lo è la società. Ciò detto non dobbiamo scegliere tra la romantica “la fantasia al potere” del ’68 ed il “w le macchine” del post pandemia. Perché semplicemente possiamo non scegliere e per una volta prenderci tutto. La teologia ci viene in soccorso: nel cattolicesimo un principio di fondo è quello del et et che si contrappone all’aut aut. Esso nasce dal fatto che Gesù Cristo è vero Dio e vero uomo. Non bisogna sempre scegliere: in questo caso ogni scelta che escluda l’altra è considerata eresia, impoverimento e quindi falsa. Cristo cammina sulle acque, ma ha paura nel Getsemani. Si trasfigura sul Tabor, ma interroga da ragazzino i sapienti del tempio. Una dinamica non polarizzante e non polare permette alla cristologia di essere strumento di lettura tanto dell’umano, l’esito antropologico, quanto del divino, l’esito teologale. Un equilibrio complesso e talora difficile, ma possibile, anzi auspicabile perché decisivo. La teologia può offrire a questo tempo, ed ai suoi giovani, il medesimo criterio. Non è necessario scegliere tra uomo e macchina. Ma è ben possibile tenere insieme uomo e macchina affinché il primo segni l’orizzonte che nutre la speranza e la seconda permetta di individuare le strade più efficaci per raggiungerlo. Il primo ricordi che vi è un resto da includere che ha pari dignità e la seconda affretti il passo di chi non comprende che fare sempre nel medesimo modo non è più possibile. L’uomo porti le sue radici, la macchina la forza per tendere a frutti abbondanti. L’alleanza è sempre più promettente dello scontro e dell’eliminazione reciproca. Ancora una volta la Bibbia è capace di raccontarcelo molto puntualmente.

Stiamo ragionando su questi temi con molti amici, prendendo le mosse da una parola, antronomia: mettere l’essere umano al centro di un processo che produce tecnologia emergente. I giovani sono attesi, in dialogo, non in un processo che contempera poteri, ma in un dialogo che renda generativi i carismi ed i talenti.

Qui il post originale

La tecnologia non è neutra tocca noi «educarla» al bene

Non più solo esecutori: gli algoritmi decidono al nostro posto, e agiscono come se avessero una coscienza






Decide l’erogazione di un mutuo, quanto medicinale percola nelle vene di un ammalato, la direzione di marcia di un mezzo, l’affidabilità di una persona, lo stile di un romanzo, il valore di un curriculum, la traiettoria di un missile. Non è l’essere umano, non più. È la tecnologia, quella emergente, come l’intelligenza artificiale. Non esegue un programma prestabilito, pur non essendo intelligente davvero, pur non avendo una coscienza e non avendo coscienza di quello che fa, e tuttavia la macchina sa muoversi in un dominio anche piuttosto ampio senza che l’essere umano la guidi o l’abbia impostata precisamente a percorrere quei passi.

La macchina impara, dai dati, da quanto acquisisce dalla realtà, dai suoi errori. Anche dagli errori dell’essere umano che gli sta di fronte quando interagisce con lui. Non è un film di fantascienza e non è uno scenario costruito o raccontato per farci avere paura, è l’oggi delle macchine che va compreso e affrontato con competenza: ma non solo quella tecnica, soprattutto quella umana, quella che ogni lettore ha acquisito vivendo giorno per giorno lacrime e gioia della sua esistenza. Abbiamo oggi bisogno di fermarci un momento, di non girare lo sguardo altrove per timore di non capire e fare brutta figura. Abbiamo bisogno di prenderci tutti un po’ di tempo per vedere e scegliere, anche chi non sa usare un computer, anche chi lo usa regolarmente.

La questione è di fondamento, è il cambiamento d’epoca, è il tempo che viviamo. Sì, perché la tecnologia non è neutra, perlomeno non lo sono le tecnologie emergenti di punta come l’intelligenza artificiale.

Sino a ieri abbiamo sempre detto che non è la macchina responsabile del male e del bene, che dietro c’è sempre un umano con le sue scelte. Abbiamo ripetuto che la morale e l’etica sono un affare di noi sapiens, una vocazione di noi battezzati. La macchina ci ha spaventati perché si è presa dei posti di lavoro, è diventata complessa, protagonista di film che hanno fatto non solo botteghino, ma ampia cultura popolare che ci portiamo dietro e dentro, ma non si tratta più solo di questo: occorre prendere coscienza che la macchina oggi non è neutra e non è più un semplice strumento.

Per comprenderlo – seguendo la lezione di Marco Fasoli, nel suo articolo «Contro lo strumentalismo tecnologico», giudicato il migliore articolo scientifico del 2020 – dobbiamo spacchettare la questione e guardarla da vicino. I tasselli decisivi sono: a) la capacità prescrittiva degli artefatti, cioè se e quanto essi incidono nelle nostre decisioni o nella formazione della nostra identità ed opinioni; b) la loro capacità di a- gire in modo autonomo nella realtà; e infine c) il loro valore morale, cioè se siano o meno capaci di incorporare dei valori. Se tali questioni sono soddisfatte allora ci troviamo di fronte a un oggetto che assomiglia sempre di più a un soggetto e, come tale, non è più neutro. Anzi, potremmo affermare che da oggetto diventa un vero e proprio ambiente, un quasi soggetto che definisce un ambiente.

Il primo punto è dimostrato dalla cronaca e dalla prassi. Nessuno di noi è capace di usare tecnologia senza che la tecno- logia non lo usi almeno in misura uguale. Dalle fake news all’uso compulsivo dei social, dalla perdita progressiva della memoria al fatto che ci perdiamo nella stessa nostra città senza l’uso di un navigatore, sino al fenomeno degli influencer, è del tutto evidente che oggi decidiamo e ci muoviamo nel surplus informativo non solo assistiti dalle macchine ma molto spesso sostituiti da esse. Del resto, la rivoluzione digitale è una rivoluzione per sostituzione, e ciò che sostituisce non è semplicemente un artefatto con un altro ma una funzione tipicamente umana, come la funzione cognitiva, con una macchina. È accaduto con la ruota, che ha sostituito la schiena dei nostri progenitori nel trasporto dei pesi, accade oggi con il potere computazionale che ci libera da fatiche intellettuali di vario genere. Ma rendendoci forse diversamente dipendenti, se non schiavi. 

La percezione del mondo passa attraverso strumenti, la tecnologia è il medium pressoché unico della realtà, e questo le assegna un ruolo evidentemente decisivo perché non siamo noi a decidere come essa medi la realtà, come gli algoritmi assemblino, filtrino, producano dati. Il secondo punto è quello dell’autonomia, dell’essere agente. Sino a che il dominio di riferimento è stata una scacchiera, pur riconoscendo alla macchina la brillantezza delle sue mosse, non abbiamo pensato che vi fosse vera autonomia. Le cose cambiano quando la macchina si muove, fisicamente o meno, in una realtà più ampia, quando ha una capacità di apprendere, di cercare e trovare connessioni nuove tra i dati che le vengono forniti o i dati che acquisisce in modo autonomo in un mondo sempre più interconnesso. La macchina trova schemi, modifica il mondo in cui li trova, modifica il modo in cui segue percorsi per giungere a risultati. Lo fa da sola, le abbiamo dato il potere di farlo nella nostra realtà. Sino a giungere – è accaduto di recente – a uccidere un essere umano senza che vi sia stato un esplicito comando di un altro essere umano. Un drone militare, in modo autonomo – così segnalano le Nazioni Unite – ha ucciso un soldato in fuga, giudicandolo un pericolo. In questi scenari diventano necessarie metriche specifiche, chi progetta macchine ha bisogno di avere competenze, o competenti, che permettano in un modo algebrico di definire percorsi, valori, esiti desiderati o indesiderabili. La tecnologia può e deve incorporare dei valori, perché è sempre più autonoma, perché lei per prima assegna valori. Un sistema che eroga dei mutui, che decide di un curriculum, che assiste una corte di giustizia, assegna valori, morali. Che lo faccia in modo statistico predittivo e non coscienziale non sposta la questione nei suoi esiti. Il fatto che agisca come se avesse una coscienza, pur non avendola, ci interroga proprio perché noi, avendo una coscienza, ci si ponga l’interrogativo, e completa così i nostri punti.

In questi scenari diventa decisivo il compito dei credenti, dei teologi, del popolo di Dio e del Magistero. Insieme possiamo e dobbiamo leggere quale sia nel disegno di Dio il posto delle tecnologie emergenti: se non sono un semplice strumento, come abbiamo brevemente tentato di tratteggiare, ma un ambiente, un quasi soggetto, quale ecologia possiamo immaginare per prenderci cura, affinché la tecnologia si prenda cura? La Chiesa ha bisogno di una agenda digitale, ha bisogno di mettere in agenda il digitale tra le grandi questioni da affrontare seriamente. C’è una tecnologia da educare, prima che sia male educata, o perché ineducata o perché educata secondo disvalori. Abbiamo la responsabilità, a partire da un dono che ci è fatto, di portare nella sfera pubblica, nelle questioni che sono di senso comune, quanto ci è rivelato sul vivere, sul morire, sul crescere, sul dovere, sulla libertà, sul potere, sul senso. Sono tutte tessere di un mosaico che il Covid ha mandato in frantumi e che la trasformazione digitale ha impattato e sta mutando. Sono i confini della Terra, confini anche immateriali, in cui il risuonare della Parola di salvezza è atteso.

Qui il post originale