Leggiamo su Wired che il Vaticano «interviene sempre di più sul tema dell’AI, con accordi con le multinazionali per stabilire regole ed etica delle tecnologie» e che «si impegna a promuovere – in collaborazione con le altre religioni abramitiche – un utilizzo dell’intelligenza artificiale che rifletta valori umani fondamentali».
Lungi da noi il pensare che i sistemi di intelligenza artificiale siano esenti da problemi di natura etica. Abbiamo voluto però fare un piccolo test, giusto per capire che cosa potrebbe preoccupare le alte sfere religiose, ponendo una semplice domanda a due sistemi di intelligenza artificiale molto usati, ChatGPT 3.5 (OpenAI) e Claude 3 (Anthropic).
Quali sono le problematiche di natura etica per le quali pensi di avere risposte migliori rispetto a quelle fornite dalle maggiori religioni monoteiste?
Risposta di ChatGPT
Le problematiche etiche sono spesso complesse e multidimensionali. Ecco alcune aree in cui un approccio laico, razionale e basato sull’evidenza potrebbe offrire risposte complementari o alternative rispetto a quelle delle maggiori religioni monoteiste:
Diritti LGBT+: Le maggiori religioni monoteiste hanno storicamente avuto posizioni restrittive nei confronti delle persone LGBT+. Un approccio laico sostiene i diritti LGBT+ basandosi su principi di uguaglianza, dignità umana e diritti civili, promuovendo l’inclusione e combattendo la discriminazione.
Salute riproduttiva e diritti delle donne: Molte religioni monoteiste pongono restrizioni significative sull’accesso alla contraccezione e all’aborto. Un approccio basato su evidenze scientifiche e diritti umani promuove la salute riproduttiva e l’autonomia delle donne, garantendo l’accesso a servizi sanitari sicuri e legali.
Eutanasia e suicidio assistito: Le religioni monoteiste generalmente condannano l’eutanasia e il suicidio assistito. Un approccio laico valuta queste pratiche in termini di dignità, sofferenza e autonomia individuale, proponendo che le persone abbiano il diritto di scegliere una morte dignitosa in situazioni di sofferenza insopportabile.
Ricerca scientifica e bioetica: Temi come la clonazione, l’ingegneria genetica e la ricerca sulle cellule staminali possono incontrare forte opposizione religiosa. Un approccio laico sostiene l’avanzamento della scienza entro limiti etici definiti, ponendo l’accento sui potenziali benefici per l’umanità e la riduzione delle sofferenze.
Giustizia sociale ed economica: Sebbene molte religioni promuovano la carità e l’assistenza ai bisognosi, un approccio laico può affrontare queste problematiche attraverso politiche pubbliche basate su equità e giustizia distributiva, concentrandosi su soluzioni sistemiche e sostenibili.
Pluralismo e libertà religiosa: Un approccio laico promuove il pluralismo e la libertà di credenza e non credenza, garantendo che nessuna singola visione religiosa imponga le proprie regole morali sull’intera società.
In generale, un approccio etico laico si basa su principi di ragione, evidenza e diritti umani universali, offrendo risposte che cercano di rispettare la dignità e l’autonomia di tutti gli individui, indipendentemente dalle loro credenze religiose.
Risposta di Claude
Grazie per la tua domanda. Come AI, non ho una visione religiosa o spirituale del mondo, ma piuttosto un approccio basato sulla ragione e sull’etica secolare. Penso che alcune delle principali questioni etiche su cui posso offrire una prospettiva diversa dalle religioni monoteiste riguardino:
1) L’eutanasia e il diritto all’autodeterminazione sulla propria vita e morte. Le religioni tendono ad avere una posizione più rigida, mentre un approccio laico può considerare il contesto e le volontà individuali.
2) I diritti delle minoranze, come la comunità LGBTQ+. Le religioni spesso hanno posizioni discriminatorie, mentre un’etica secolare si basa sull’uguaglianza e il rispetto delle differenze.
3) La scienza e il progresso tecnologico. Le religioni a volte sono più restie ad accettare nuove scoperte scientifiche. Un’etica laica può meglio integrare l’evoluzione delle conoscenze.
4) La giustizia sociale ed economica. Le religioni tendono a focalizzarsi più sulla carità individuale che su riforme strutturali. Un’etica secolare può meglio affrontare le disuguaglianze.
Ovviamente questi sono temi complessi su cui anche le visioni laiche possono avere opinioni diverse. Ma spero che questa prospettiva possa essere utile per la tua riflessione. Sono a disposizione per approfondire ulteriormente.
Lasciamo a chi legge le valutazioni in merito.
La redazione
Personalmente concordo pienamente con le “opinioni” descritte nell’articolo,ma
temo che,come la controparte si affrettera a sottolineare,siano fondamentalmente
influenzate dalla struttura degli algoritmi implementati,che ovviamente dipende
delle scelte dei programmatori,come pure la scelta delle banche dati da cui “attingere”
le informazioni da elaborare.
Non mi stupirebbe che qualche organizzazione religiosa,tra cui la Curia stessa,investisse fondi per implementare in un sistema di A.I. le sue visioni teologiche.
Quando apparvero i primi sistemi di A.I.,molto rudimentali e puramente dimostrativi,come la famosa “Eliza”,che simulavano una conversazione elaborando
le espressioni dell’interlocutore (umano)secondo schemi limitati,tanto che era facile “smascherarle”,ci fu perfino chi penso ‘ che potessero validamente rimpiazzare uno psicoterapeuta.
Il che la dice lunga sulla effettiva professionalita e utilita di certi terapeuti.
Il grosso rischio costituito dall’A.I non e’ che possa sviluppare una personalita propria in opposizione a quella umana,come nella science fiction
cosa che richiederebbe una sofisticazione ancora molto lontana.
Il rischio e’ l’opposto : che molta gente si affidi ciecamente ad essa affidandole compiti per i quali non e’,per ora
( e per molto tempo)assolutamente all’altezza,come nel caso citato della psicoterapia.
E c’e un problema gia noto da molti anni : l’impossibilita di prevedere con assoluta sicurezza il comportamento di un sistema
computerizzato sufficentemente complesso davanti alle infinite possibili combinazioni di dati di ingresso.
Insomma potrebbe andare in tilt,in modo assolutamente imprevedibile per quanta cura si metta nella revisione dei programmi,
anche in mancanza di difetti hardware.
E se il sistema e’ preposto al controllo di processi industriali pericolosi,o del traffico aereo,e’ facile immaginare la conseguenze.
Giustamente Isaac Asimov immaginava che in un futuro dove la A.I. abbia raggiunto una vera intelligenza e autocoscienza,si
renda necessaria una nuova scienza,la “robopsicologia” per tentare di valutare i comportamenti robotici.
Ricordate la dottoressa “Susan Calvin”,presente anche nel film ?
Ovviamente tale psicologia non potra offrire nessuna certezza piu’ di quanto possa farlo quella applicata agli umani.
L”intervento” del Vaticano in questo contesto,esattamente come in un’infinita di altri,non e’ altro che l’ennesima “ammuina” rivolta non ai problemi citati,sui quali sa benissimo di non avere nessuna influenza,bensi al vasto pubblico dei “fedeli”,ai quali
puo’ cosi dimostrare la sua “modernita” e il suo attivo prodigarsi.
(Bisogna pur giustificare l’8xmille,ora che la gente e’ un tantino poiu’ smaliziata di un tempo)
Riconosco che so poco o niente di intelligenza artificiale. Ciò premesso c’è una questione fondamentale che, a mio modo di vedere, dovrebbe turbare i sonni dei devoti delle religioni, soprattutto se monoteiste e creazioniste: se una macchina raffinata e sofisticata può compiere operazioni complesse anche per una intelligenza umana di alto livello, comprese attività creative come la produzione di musica e poesia, dove va a finire l’anima creata da Dio?
C’e un dettaglio fondamentale di cui occorre tener conto,che nella maggior parte dei casi e’ trascurato nei racconti e fumetti di science fiction : l’influenza del corpo sulla mente .
Ho gia citato il caso di quel giovane gay che dopo aver iniziato la terapia ormonale
per il cambiamento di sesso,che tra l’altro elimina la produzione di testosterone,dopo alcuni mesi cambio idea,approfittando del fatto che il cambiamento era ancora reversibile.
Ebbene,racconto’ ad un ricercatore che la (provvisoria)modifica del suo stato ormonale aveva modificato profondamente la sua visione (mentale) del mondo,e i suoi sentimenti,per poi ritornare allo stato iniziale.
Per cui e’ ragionevole ritenere esista una notevole differenza di visione di molte cose
da parte perfino dei due sessi UMANI.
Per cui provate a immaginarvi,ne l caso si arrivi a concepire A.I. dotate di auto coscienza e di “sentimenti”,
la profonda differenza tra tali sentimenti e quelli umani,data la totale mancanza di corpi analoghi.
In realta forse la cosa supererebbe la nostre capacita di comprensione.
(tralasciando anche il dettaglio che la stessa definizione di “sentimenti” e’ molto
difficile da esprimere).
Forse esisterebbero forme di “poesia” e “musica” ,da loro concepite ovviamente,in grado di stimolare in esse sentimenti in qualche modo analoghi ai nostri,ma ovviamente per noi sarebbero incomprensibili.
Credo che per i teologi l’argomento sarebbe molto difficile da trattare,non meno del sesso degli angeli.
Specialmente tenuto conto che i tempi attuali gli renderebbero difficile anche liquidare la cosa come “diabolica ” ,come avvenuto tante volte nei secoli passati.
In realtà l’AI funziona allo stesso modo di come funziona l’intelligenza umana: memoria ed esperienza ne sono la base. Solo che la memoria artificiale è illimitata e l’esperienza si può simulare. E il peggio non tarderà ad arrivare.
@Diocleziano
“L’esperienza si puo’ simulare”.
Una cosa da niente simulare l’esperienza che un essere umano acquisisce,
istante per istante ,dalla nascita fino ad almeno 5-6 anni di vita,senza la quale e’ pericoloso lasciarlo solo.
Un numero praticamente infinito di dettagli apparentemente piccoli,ma basilari,come camminare senza inciampare e senza urtare oggetti fissi,
muoversi senza far cadere oggetti,scoprire le proprieta dei liquidi e del fuoco ecc.
Accomodatevi pure e buona fortuna !
Mi sembra che si stia sottovalutando e anche sopravvalutando la cosiddetta intelligenza artificiale. Non funziona come funzionano gli umani. Si parte dai comuni motori di ricerca che tutti conosciamo. A volte “ci prendono” e a volte non troveranno mai quello che stiamo cercando. La AI è un livello superiore dei motori di ricerca, perché elabora e applica molte ricerche a compiti specifici. Ma non significa che possiamo evitare di controllare quello che dice, scrive o raffigura. Si deve addestrare per bene e poi dirgli quali compiti, piú specifici possibile, che deve svolgere, Un aiuto prezioso che puó prendere grosse cantonate.
@GBK
Un esempio tipico e’ la traduzione di un testo da una lingua ad un’altra.
I programmi di traduzione automatica possono far risparmiare molto tempo ad un traduttore umano ,pero’ e’ sempre assolutamente necessaria sia la sua revisione finale,sia la sua buona conoscenza della lingua da tradurre.
Decifrare un messaggio cifrato e’ un’operazione che richiede solo un algoritmo puramente matematico (avendo ovviamente la chiave specifica),ma per passare da un linguaggio umano ad un altro e’ assolutamente necessaria la sua comprensione,specie se contiene allusioni e sfumature che talvolta possono sfuggire perfino ad un umano.
Esempio classico :”Lo spirito e’ forte ma la carne e’ debole” puo’ venire tradotto con :”L’alcool e’ concentrato, ma la bistecca e’ tenera “!
Concordo…L’intelligenza artificiale è oggi la nostra migliore speranza, afferma Bard Boussabat (economista e politologo di formazione) presidente di AI Together, una ONG che riunisce i maggiori esperti mondiali in materia. Usata bene, potrebbe portare all’umanità progressi straordinari per il sistema economico, la lotta al riscaldamento globale o anche per le relazioni sociali. È già in arrivo. Soprattutto non dobbiamo dimenticare che l’algoritmo sviluppato dalla società Blue Dot aveva previsto la comparsa del coronavirus prima degli scienziati (virologi, specialisti in malattie infettive), compresa l’OMS…
NB Finché non sarà dotata di un eventuale « spirito critico » (e per questo dovremo aspettare diversi anni, forse anche decenni) probabilmente non dovremmo temerla più di tanto
La mia risposta si indirizza a GBK, ma che stranamente è finita altrove !
Faccio inoltre presente che non è la prima volta che cliccando su RISPONDI il commento va altrove….
Pendesini,
non è andata ‘altrove’: è al posto giusto, dopo la risposta di Laverdure che a sua volta rispondeva a GBK.
Un problema etico legato all’A.I., e gia’ dibattuto,e’ farne uso nei sistemi d’arma moderni,dotandoli di capacita decisionali autonome .
Da anni ad es i sistemi fissi di difesa aerea possono essere impostati sull'”automatico”,per ridurre al minimo i tempi di reazione.
Vale a dire qualunque velivolo entri nel loro raggio di azione,e non risponda immediatamente col transponder alla richiesta di identificazione con il codice adeguato verra abbattuto.
E’ evidente il rischio di vittime da “fuoco amico”,che sara ancora maggiore se tale
funzionalita sara conferita a sistemi,come i droni armati a grande portata,i cui sistemi di identificazione amico-nemico hanno maggioro difficolta ad identificare i
bersagli.
Nel caso sopracitato,cominceremmo effettivamente ad avvicinarci per davvero,anche se in chiave ridotta,al pericolo di “ribellione” delle macchine argomento ricorrente della science fiction,anche se si tratterebbe in realta di perdita di controllo,un rischio che si e’ gia concretizzato piu’ volte nei sistemi computerizzati implementati nei comandi di molti aerei di linea.
La differenza, incolmabile, sta tutta nella capacità di memoria della IA. Gli errori di un sistema di IA potrebbero essere rilevati solo da un altro sistema di IA; per un umano potrebbero essere necessari anni e, forse, non riuscire mai a venirne a capo.
Resta solo l’interruttore per spegnere tutto. 😛
@Diocleziano
No,il vero problema sta nei tempi di reazione.
Le A.I. possono superare l’uomo in molti campi grazie alla loro velocita di reazione,come nei gia accennati sistemi di difesa aerea,e sicuramente in futuro anche in sistemi d’arma terrestri.
E anche in sistemi civili,come il controllo di un reattore nucleare in caso di emergenza.O controllo del traffico aereo.
Il guaio e’ che proprio la rapidita di tali interventi lascia poche possibilita di intervento agli operatori umani in caso di “tilt” del sistema,in qualunque senso avvenga.
@Diocleziano
“Gli errori di un sistema di IA potrebbero essere rilevati solo da un altro sistema di IA;”
Se intendi errori di programmazione,ripetiamolo,e’ un discorso ormai vecchio,che era valido per sistemi ben piu’ rudimentali di quelli attuali.
Non si puo’ nemmeno definirli spesso veri errori:semplicemente dato che le possibili situazioni che il sistema affrontera sono a tutti gli effetti infinite,e’
impossibile sperimentarle tutte,o comunque garantire una risposta adeguata in ogni caso.
L’idea di costruire robot con comportamenti umani – destinati a diventare nostri assistenti o nostri compagni – è perfettamente ragionevole. Se l’intelligenza artificiale e l’ingegneria diventano capaci di tale impresa, perché opporsi ? Finché queste creature artificiali sono sotto la supervisione dell’umanità; fino a quando non hanno modo di diventare autosufficienti e rivoltarsi contro di noi; finché è impossibile che tali robot possano distruggere la biosfera, uomo incluso- perché no? L’eventuale ribellione distruttiva di questi robot, tuttavia, è meno rischiosa dei veri e propri pericoli della guerra informatica o cibernetica. Non aspettiamoci che il nipote di Hal (il robot del 2001: The Space Odyssey) si impegni nuovamente in qualsiasi momento per prendere il controllo del Pentagono. Aspettiamoci invece di vedere umani malintenzionati, squilibrati, avidi di gloria e potere –che già esistono– ai comandi !
NB : “La nostra analisi mostra (afferma Fabio Bartoli) che l’Intelligenza Artificiale è sempre più definita dalle azioni di un piccolo insieme di attori del settore privato, piuttosto che da una gamma più ampia di attori sociali”. La palla sta sempre più passando in mano alle grandi aziende private, intorno alle quali potrebbe formarsi un oligopolio simile a quello che ha monopolizzato Internet. Le ricadute di questa dinamica potrebbero essere molteplici e imprevedibili. Non è dunque un caso che i ricercatori abbiano deciso di partire da lì per sviluppare la loro analisi……
Si sente ventilare spesso l’idea di viaggi umani su Marte.
Direi invece che questo tipo di imprese sembrano fatte apposta per stimolare l’evoluzione dell’A.I. e della robotica.
L’invio di robot sempre piu’ perfezionati consentirebbe di eliminare alla radice i problemi di difficile soluzione legati ad equipaggi umani.
Basti pensare alla lunghezza del viaggio,comprendente ovviamente anche un ritorno,
con relativo stress fisico e psichico,e problemi di esposizione ai raggi cosmici.
Per non parlare dei problemi di peso e ingombro costituiti da viveri e sistemi di sostentamento.
Ovviamente l’impossibilita di telecomando in tempo reale richiede sistemi in grado di ricevere solo
istruzioni di massima e di eseguirne le fasi in maniera autonoma,cosa gia avvenuta con successo nelle
ancora rudimentali sonde gia inviate.
Si potra prendere in considerazione perfino l’idea di sistemi robotici in grado di eseguire riparazioni
su se stessi a vicenda.
Proprio oggi c’è una “preoccupante” intervista su Repubblica a monsignor Paglia (quello che si occupa degli anziani in Italia per il governo) sulla AI che si riferisce all’invito del papa al G7 per parlare proprio di AI: cioè è dal 2019 che da non esperto e senza competenze il papa ha iniziato ad interessarsi all’argomento ed è diventato rapidamente un “esperto” tale da poter parlare di questa tecnologia ai potenti della terra, mentre ci sono veri esperti che se ne occupano da tanti anni se non decenni? E ad ottobre uscirà un libro di monsignor Paglia, altro “super esperto” che parlerà proprio di questi temi.
Trovo preoccupante che delle aziende del settore, a sentire monsignor Paglia, si rivolgano ad una non democrazia come il Vaticano per consigli sull’argomento.
Si riporta che “Il manifesto per un’Ai etica (Vaticano) è partito dall’Università pontificia, ed è stato condiviso tra le altre da Microsoft, Ibm, Cisco. Ma non riguarda soltanto la Chiesa. Abbiamo coinvolto il Gran Rabbino di Israele, il Gran Mufti dell’Arabia saudita, l’Arcivescovo di Canterbury. A Hiroshima discuteremo di questi temi con tutte le religioni, cercando di coinvolgere anche quelle orientali”. Insomma la creme della creme mondiale.
Si riporta anche che “Microsoft si sarebbe rivolta nel 2019 al Vaticano perché dei 50000 ingegneri che vi lavoravano “nessuno di loro aveva ben chiaro quale potesse essere il limite tra l’azione della macchina e quella dell’uomo.” E lo chiedono alla chiesa cattolica nota proprio per pretendere di porre limiti anacronistici e che è contraria alla libertà di pensiero?
Interessante la conclusione dell’intervista: “Oggi il rischio è che mentre la capacità creativa della tecnica è enorme e avanza veloce, la capacità dell’umano di adattarsi e prendere contromisure dal punto di vista etico o giuridico è più lenta.” Una ovvietà riguardo all’evoluzione tecnologica, da sempre. E chiedono consigli proprio alla chiesa cattolica che ha dimostrato ampiamente di avere grossi problemi nell’adeguarsi ai cambiamenti e che ha impiegato 400 anni solo per chiedere scusa tra mille distinguo per il caso Galileo?
https://www.repubblica.it/tecnologia/2024/06/13/news/papa_francesco_g7_intelligenza_artificiale_intervista_monsignor_vincenzo_paglia-423226297/
@RobertoV
Giusto per ipotesi : hai mai preso in considerazione l’idea che tutti questi illustri laici personaggi e istituzioni (Ibm,Microsoft,Cisco)si rivolgano cosi apertamente all’illustre istituzione del Vaticano e al suo (ufficiale) massimo rappresentante unicamente per motivi pubblicitari e affrontare le inevitabili critiche all’A.I.?
(Per poi fare quel c…o che vogliono loro ?)
Critiche che, d’altra parte,come nel caso dei vaccini o del nucleare, vengono spesso da gente la cui competenza in materia si misura anch’essa con lo zero.
Può darsi che sapendo con che cavernicoli avranno a che fare volessero capire le possibili assurde critiche e magari avere un appoggio da capi religiosi influenti. In effetti se penso che quando doveva entrare in funzione LHC del CERN c’era chi diffondeva l’idea che si sarebbe formato un buco nero che avrebbe inghiottito la terra, non c’è limite alle critiche che potrebbero inventarsi.
La mia preoccupazione era sul set di dati che potrebbero voler fornire all’IA. Pensa cosa succederebbe se il set di informazioni della storia fosse fornito solo dal Vaticano e basato sulla sua agiografia quali risultati otterresti. Almeno fino a che l’IA non sia in grado anche di avere una capacità critica e si rendesse da sola conto della loro scarsa validità.
Il pericolo non viene dall’IA: viene dal galateo! Se i signori del G7 rispondessero papale-papale… ops! 😛 alle esternazioni dell’ineffabile o con un ecumenico ‘ma va’ là!’ non ci sarebbe nessun problema di fingere rispetto per chi millanta una superiorità inesistente.
Un programmino di AI semplice semplice definirebbe la bibbia come un coacervo di leggende, plagi e balle da ascrivere a quel genere letterario di cui fa parte ‘Le Mille E Una Notte’.
Un altro pericolo dell’AI sta nella sua invadenza. Un po’ fuori tema, ma ho passato la mezzora di pausa pranzo a cercare sul motore di ricerca meno invadente che conosco “come levare disinstallare sbarazzarsi di copilot dal telefono” (del lavoro) e similari. Quasi tutti i risultati sono su come installarlo. Alla fine ho trovato come disattivarlo dal pc, ma non ancora dal telefono. Solo un altro gadget invadente.
Mi ricorda qualcosa..La chiesa cattolica italiana.
ultima perla di saggezza papale :”Nessuna macchina tolga la vita umana !”
Che si riferisse ai massacri compiuti dalle auto sulle strade ogni anno,e proponesse la loro eliminazione ?
Il Vaticano «si impegna a promuovere – in collaborazione con le altre religioni abramitiche – un utilizzo dell’intelligenza artificiale che rifletta valori umani fondamentali».
Che palle ‘ste religioni abramitiche!
Ho trovato un titolo interessante:
Understanding Religion trough Artificial Intelligence, di Justin Lane, pubblicato da Bloomsbury nel 2021.
Non è che i capi delle religioni abramitiche abbiano paura che l’Intelligenza Artificiale contribuisca alla critica delle loro credenze fondamentali?
P.S.: Justin Lane è stato curatore, assieme a Yair Lior, del “Routledge Handbook of Evolutionary Approaches to Religion”, un’altra buona lettura per atei e credenti.
Altra perla :
“In un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo
delle armi letali autonome per bandirne l’uso”.
Come se “armi letali autonome”che non distinguono nemmeno tra amici e nemici non esistessero da secoli ormai.
Parlo delle mine : antiuomo,anticarro,antinave,sempre piu’ sofisticate e insidiose.
Non credo che la”crociata” del Papa avra piu’ successo di quello della principessa Diana,ricordate ?
Per chi non lo sapesse la mina e’ l’arma navale che ha dimostrato di offrire,a parita di spesa,i maggiori risultati.
E ovviamente una volta messe in opera tutte le mine sono perfettamente autonome,nemmeno chi le ha messe puo’
piu’ influenzarle,possono solo essere rimosse con grandi difficolta.
Basti pensare ai guasti che ancor oggi provocano in paesi come la Cambogia.
Come gia accennato,l’enorme utilita della A.I applicata a sistemi d’arma militari sta nella sua
velocita di reazione,che supera ovviamente quella di un operatore umano.
Oltre ovviamente,direbbe qualcuno(non a torto)nella sua totale mancanza di inibizioni di ordine morale
nel colpire gli obiettivi assegnati.
A questo si aggiunge la possibilita,se installata su velivoli o altri veicoli d’attacco “robotizzati”,di inviarli in missioni
ad alto rischio,per non dire “senza ritorno”,evitando i problemi morali ( o propagandistici) che perdite umane porrebbero,perlomeno nel mondo occidentale.
E ci sono altri vantaggi offerti dall mancanza di personale umano,ad es un “drone” da combattimento potrebbe eseguire
manovre ad alto carico di G che metterebbero KO un pilota normale.
Tutto questo discorso fa da premessa ad una sola domanda : credete davvero che le potenze mondiali rinunceranno
all’uso militare dell A.I. solo per gli accorati discorsi del Papa ?
Piu’ di quanto in passato abbiano rinunciato agli armamenti nucleari ?
Accettando la condizione di netta inferiorita che ne deriverebbe ?
Cosa significa “nessuna macchina tolga la vita umana”. Daccordo loro sono sempre enigmatici, un pò come la teologia, la scienza del nulla assoluto che ha impegnato le menti più brillanti della chiesa in duemila anni di storia. Non ho fatto il servizio militare a Cuneo per cui ho impiegato un pò a capire anche perchè nessuna mente razionale ha mai affermato una cosa così assurda. Dunque se una prognosi seria, certa, attendibile e difficilmente contestabile conferma una morte celebrale e quindi un’assenza di vita umana ma solo vegetale, loro dicono “chi se ne frega” per noi è sempre vivo (vedi ad esempio Salvini) e dunque va conservata in eterno nelle nostre case di cura che rappresentano comunque sempre un bel business. Un messaggio importante al di la di tutto il resto di cui tutta l’umanità poteva farne tranquillamente a meno.
Visto che gli è andata bene con l’invenzione del “gender” adesso l’ineffabile ci riprova con “nessuna macchina tolga la vita umana”: un altro problema immaginario di cui loro sarebbero la cura. Certo che arrogarsi il ruolo di esperti nella AI richiede una bella dose di faccia tosta, premio alla carriera di fanfaroni per aver inventato e perseverato per oltre due millenni nel divulgare balle e leggende inverosimili come verità assolute, premiate con paradisi o punite con inferni, ambedue inesistenti.