This is an Italian translation of Why I am probably not a longtermist
Riassunto: mi interessa molto di più fare in modo che il futuro sia positivo anziché di lunga durata o vasto, poiché non credo che il mondo sia molto buono ora né sono sicura che lo sarà in futuro. Non sono convinta che esistano scenari in cui siamo intrappolati in un eventuale mondo problematico almeno quanto quello di oggi che possiamo evitare o influenzare con le nostre azioni di oggi. E se non ce ne sono, penso che sia meglio concentrarci su strategie “tradizionali e non lungoterministe” per migliorare il mondo.
Ho pensato che il motivo per cui non sono molto convinta del lungoterminismo potrebbe interessare ad altri AE (altruisti efficaci), dato che il lungoterminismo è di alto rilievo per molte persone nella comunità.
Questo post tratta della filosofia chiamata “lungoterminismo”. Non prende posizione sulle cause a cui dare priorità. È completamente possibile che cause solitamente collegate al lungoterminismo siano importanti per motivi non lungoterministi.
Ho impostato questo post attorno a quelli che secondo me sono i nodi della questione e segnalato prove o ragionamenti che potrebbero convincermi che ho torto, ma vorrei anche che mi venissero segnalate idee che potrebbero essermi sfuggite! Generalmente non ho indagato fino in fondo quelli che per me sono i nodi della questione. Per questo sono solo “probabilmente” non lungoterminista.
La qualità del futuro remoto
1. Trovo molti aspetti dell'utilitarismo poco convincenti.
Per essere lungoterminista non devi per forza essere utilitarista. Penso però che a seconda delle tue differenze con l’utilitarismo totale, non abbraccerai probabilmente “fino in fondo” il lungoterminismo.
A me importa molto lasciare alle generazioni future un mondo in buone condizioni. Mi importa molto anche il benessere di ciascuno, disgiunto dai limiti temporali. Ciò di cui mi curo meno di un utilitarista totale, però, è far sì che esistano persone felici che altrimenti non sarebbero esistite. Ciò vuol dire che non mi preoccuperei troppo se l’umanità non riuscisse ad aumentare di grande numero e diffondersi per le stelle. Nonostante far sì che esistano persone felici abbia valore, io lo ritengo molto meno meritevole che evitare che le persone vivano in miseria. Perciò non mi preoccupa molto la perdita di potenziale causata da rischi di estinzione (anche se mi importano molto le loro conseguenze nel breve termine), anche se ciò dipende da quanto lungo e positivo mi aspetto sia il futuro (vedi più avanti).
Cosa mi farebbe cambiare idea:
Non mi interessa solo perseguire i miei valori, ma vorrei anche fare sì che i valori altrui si realizzino. Per esempio, se scoprissi che a svariate persone nel mondo importasse molto aumentare la popolazione umana nel lungo termine, gli darei molta più priorità. Mi interessa tuttavia un po’ meno la somma delle preferenze individuali e più le preferenze di una varietà di gruppi. Questo per dare più peso a idee più rare e per evitare di premiare un gruppo che si riproduce più degli altri o che diffonde i propri ideali in maniera imperialista.
Voglio anche dare maggior peso ai valori di coloro che stanno soffrendo di più. Se loro pensassero che il futuro remoto meritasse di avere priorità sul loro dolore nel presente, li prenderei in seria considerazione.
In alternativa, potrei essere persuasa sia del realismo morale che dell’utilitarismo dentro a questa ottica. Non ho ancora trovato una spiegazione che usi parole chiare per supportare il senso del realismo morale, ma questo potrebbe essere un buon punto d’inizio.
Se il mondo migliorasse all’improvviso e tutti godessero del mio stesso tenore di vita attuale, sarei felice di concentrarmi sul rendere il futuro vasto e duraturo anziché sul migliorare vite.
2. Non credo che l’umanità sia intrinsecamente meravigliosa.
Un tema ricorrente in molte visioni del futuro lungoterministe sembra l’idea che l’umanità sia meravigliosa e dovrebbe perciò sussistere a lungo. Non credo di essere misantropa e ritengo che il mio parere sia nella media per un Europeo. Ci sono molti aspetti positivi dell'umanità da cui traggo piacere a veder fiorire.
Ma l’entusiasmo palese che la maggior parte dei lungoterministi manifesta per l’umanità mi confonde. Persino ora l’umanità sta commettendo genocidi, lasciando morire milioni di persone di fame, schiavizzando e torturando persone e miliardi di animali allevati. Trovo difficile conciliare tutto ciò con l’idea che l’umanità sia “meravigliosa”.
Un’obiezione comune sembra essere che sì, ci sono problemi, ma semplicemente non abbiamo ancora avuto tempo di risolverli. Che l’uomo è pigro, non malvagio. Questo non mi convince. Non mi interessa solo che le persone vivano vite piacevoli, mi interessa anche che siano brave persone. La pigrizia non è una scusa.
Possiamo fare di più in questo preciso istante. Perlopiù non lo facciamo. Poche persone che sentono parlare delle organizzazioni benefiche raccomandate da GiveWell decidono di donare una porzione significativa del loro salario. Ci sono persone che prendono voli intercontinentali per turismo pur essendo a conoscenza del cambiamento climatico. Molti mangiano carne pur avendo sentito delle condizioni degli allevamenti intensivi. Questi esempi sono piuttosto diffusi nel mondo, ma non credo sia critico.
Puoi contestare questi esempi presi uno alla volta. Talvolta le persone davvero non hanno le informazioni necessarie. Possono avere differenze di opinione empiriche o diverse prospettive morali (es. non ritenere che gli animali siano senzienti). A volte considerano le priorità e decidono di dedicarsi ad altri modi di fare del bene. A me tutte queste ragioni stanno bene.
Ma alla fine, mi sembra che molti abbiano i mezzi per fare la loro parte, eppure rimangono enormi problemi. Sarà sicuramente un bene se nel futuro avremo innescato sistemi migliori per ridurre la miseria e se avremo i giusti incentivi per far sì che le persone si comportino meglio. Ma non mi entusiasma pensare ad un’umanità che ne ha bisogno per comportarsi rettamente.
Questo mi rende anche riluttante a dare molto peso all’idea che dovremmo aiutare le persone a fare del bene, indipendentemente da quando accada. Questo è vero solo se le persone in futuro saranno moralmente meritevoli almeno quanto le persone oggi.
O per metterla in modo diverso: se gli uomini fossero veramente così meravigliosi, non avremmo bisogno di preoccuparci di tutti questi rischi nel futuro. Si risolverebbero da soli.
Cosa mi farebbe cambiare idea:
Sarei assolutamente elettrizzata di scoprire di sbagliarmi sul livello di moralità delle persone che mi circondano! Ammetto che fatico a trovare prove plausibili, perché sembrerebbero diametralmente opposte al mondo che osservo. Forse è proprio la mancanza di informazione che impedisce alle persone di fare del bene, come sembra pensare Max Roser di Our World in Data. Potrei persuadermi se le campagne di informazione riscuotessero effetti importanti.
Non ho familiarità con quanto seriamente le persone in altri luoghi e tempi considerino i loro obblighi morali. È possibile che la mancanza di azione che osservo sia un’eccezione locale.
Anche se questo non dovrebbe avere un impatto sulla mia opinione, mi troverei anche più a mio agio con il lungoterminismo se vi riscontrassi una maggiore attenzione all’ingegneria sociale o medica per produrre persone (moralmente) migliori all’interno della comunità lungoterminista.
3. Non sono sicura che il futuro sarà meglio del presente.
Il mondo è migliorato molto da molti punti di vista. La povertà estrema è diminuita, l’aspettativa di vita media aumentata e meno persone vengono messe in schiavitù. Sono ottimista che queste tendenze positive continueranno.
Ciò di cui sono più scettica è della misura in cui queste tendenze mostrino il quadro completo della situazione. Anche se i più sarebbero d’accordo che è un bene che meno persone muoiano di fame o muoiano giovani, ci sono molte tendenze elogiate dai lungoterministi che altri potrebbero giudicare diversamente, come la diminuzione della religiosità. Oppure altri potrebbero porre l’enfasi su aspetti diversi. Qualcuno a cui importino molto gli animali negli allevamenti intensivi potrebbe non credere che il mondo sia migliorato.
Mi preoccupa che l’idea che il mondo stia migliorando dipende da un sistema di credenze piuttosto raro. Usando la lente della teoria dei principi morali di Haidt, si direbbe che la maggior parte dei miglioramenti sia nel principio di rimedio/danno, ma il mondo potrebbe non essere migliorato secondo altri principi come lealtà/tradimento o santità/degrado.
Inoltre, mi aspetto che molti cambiamenti positivi si interrompano prima di diventare negativi, ma temo che per alcuni non sarà così. Per esempio, penso che l'aumento dell'edonismo e dell'individualismo siano stati entrambi una forza positiva, ma se esagerati riterrei che peggiorino il mondo, e mi sembra che siamo già a quel punto o quasi.
In generale, mi preoccupa che tendiamo a oltrepassare l’iniziale obiettivo positivo, continuando ad ottimizzare secondo criteri troppo rigidi. L’esempio più chiaro è l’esaltazione del profitto. Ne ho parlato di più qui.
Se il mondo non è migliore rispetto al passato, non si può estrapolare da ciò un’aspettativa di un futuro ancora migliore. Questo è un altro motivo per cui voglio concentrarmi sul rendere il futuro positivo, non duraturo o vasto.
Un’altra nota è che, pur non essendo un ragionamento che mi dissuade dal lungoterminismo, provo avversione per il fatto che alcuni lungoterministi sembrano ritenere positivi dei futuri che io trovo privi di valore (es. “l’onda cosmica di hedonium” - dall’inglese hedonium shockwave. Hedonium indica una particella o un materiale ottimizzato per provare tanto più piacere quanto possibile, mentre l’immagine di un’onda cosmica si riferisce ad un futuro in cui l’hedonium venga disseminato rapidamente come un’onda attraverso l’universo, per massimizzare la quantità di piacere provata nell’universo per il maggior tempo possibile). Culturalmente, molti lungoterministi sembrano preferire più edonismo, individualismo e tecno-utopismo di quanto vorrei.
Cosa mi farebbe cambiare idea:
Sono ben consapevole che molte persone sono pessimiste verso il futuro per via di credenze errate su fatti basilari dell'evoluzione del mondo. Mi interessa comunque considerare ancora come prospettive diverse portino ad opinioni diverse sulla questione di se il mondo stia migliorando.
La durata del futuro remoto
Non mi persuadono argomentazioni che il futuro potrebbe essere molto lungo. Non capisco come ciò sia possibile senza almeno un totalitarismo leggero, che a sua volta comporta rischi per il valore del futuro.
O da una prospettiva diversa, vi sono persone che studiano rischi esistenziali che hanno passato alcuni anni a cercare di convincermi che siano molto elevati. Passare da questa giustificazione per lavorare sui rischi esistenziali al lungoterminismo, che presuppone il raggiungimento di una sicurezza esistenziale, mi dà un senso di colpo di frusta.
Si veda anche questo post breve sulla questione. Lì si fa menzione della regola di Lindy, che parte dalla constatazione che esistono sistemi auto-propaganti da miliardi di anni per concludere che dunque sopravviveranno ancora per un simile lasso di tempo. Ma non capisco perché dovremmo partire dai sistemi auto-propaganti; a me interessa solo applicare la regola di Lindy ad una civiltà umana dotata di valore morale, che in confronto è esistita per un periodo molto più breve.
Non vado neanche pazza per l’idea di basare decisioni su calcoli del valore atteso, secondo i quali la stima di piccole probabilità è incerta e il valore atteso è la giustificazione principale (anziché un approccio basato più sul pensiero “a grappolo”). Non mi oppongo a queste decisioni di principio, ma i miei resoconti personali in questo ambito sono molto scarsi: il valore atteso che ho ricavato da calcoli approssimativi (on the back of the envelope, “sul retro della busta”) non si è generalmente concretizzato. Nutro anche le solite preoccupazioni sull’onda dell’esperimento mentale della rapina di Pascal (Pascal’s mugging).
Cosa mi farebbe cambiare idea:
Gradirei ricevere ragionamenti fondati su come l’umanità potrebbe raggiungere la sicurezza esistenziale.
La possibilità di influenzare il futuro remoto
Non sono convinta che le persone possano affidabilmente avere un’influenza positiva sul futuro che non sia svanita nel giro di 100 anni, magari entro un fattore di 3. Ma c’è un’eccezione importante: la prevenzione o influenza di uno scenario di “vincolo” in questo lasso di tempo. Per “vincolo” voglio dire qualsiasi scenario dal quale l’umanità non potrebbe mai riprendersi. I rischi di estinzione sono un esempio ovvio, un altro è il collasso permanente della civiltà.
Sono consapevole che la definizione canonica di rischio esistenziale di Bostrom include entrambi questi scenari di vincolo, ma include anche scenari che io considero completamente irrilevanti (es. non riuscire a raggiungere un futuro transumanista), motivo per cui non uso questo termine in questa sezione.
E dato che non penso che possiamo avere un’influenza sicura sul mondo per più di qualche decade, non mi convincono motivazioni come il “miglioramento dei processi decisionali delle istituzioni”, se non nella misura in cui possono influenzare o prevenire uno scenario di vincolo in quel lasso di tempo…
Inoltre, mi interessano solo scenari di vincolo che porterebbero a un mondo con gli stessi aspetti negativi di adesso, o peggiore, o forse non molto migliore. Non mi interessa prevenire un futuro in cui l'umanità non fa altro che guardare Netflix tutto il giorno - sarebbe un peccato, ma almeno migliore di un mondo in cui ci sono regolarmente persone che muoiono di fame.
Al momento non so abbastanza sulla probabilità di scenari di vincolo negativi per poter giudicare se, secondo la mia visione del mondo, valga la pena concentrarsi su di essi. Se questo dovesse rivelarsi essere il caso in seguito a ulteriori indagini, potrei trovarmi a descrivere i miei ideali come lungoterministi se insistete, ma prevedo che sentirei comunque una distanza culturale da altri lungoterministi.
Se non ci sono opzioni per evitare o influenzare scenari di vincolo negativi nei prossimi decenni, mi aspetto che migliorare il mondo secondo approcci “tradizionali e breveterministi” sia la cosa migliore.
Le mie opinioni qui sono simili a quelle di Alexander Berger, opinioni che ha esposto in questo podcast di 80,000 Hours.
Cosa mi farebbe cambiare idea:
Se sono mai esistiti impatti intenzionali durati più di 100 anni nel futuro, sarei grata di venirne a conoscenza. Ho familiarità con i blogposts di Carl sull’argomento.
Mi aspetto di dedicare presto un po’ di tempo ad investigare questo punto cruciale: se esistono scenari di vincolo negativi all’orizzonte che potremmo evitare o plasmare, questo probabilmente cambierebbe le mie credenze sul lungoterminismo.
Dato che questo è un nodo importante, alcuni potrebbero pensare che io abbia tratto conclusioni premature sulla mia visione del mondo. Ma le mie opinioni sembrano abbastanza diverse dalla maggior parte di quelle lungoterministe che ho sentito, per cui spero sia valsa la pena di esporle comunque.
Se qualcuno dovesse avere risorse da indicarmi che potrebbero farmi cambiare posizione, sarei grata di riceverle.
Grazie ad AGB e Linch Zhang per aver dato commenti su una bozza di questo post.