Uzun vadecilik, insanlığın uzak geleceğini olumlu yönde etkilemenin, günümüzdeki bireylerin ahlaki sorumluluğu olduğunu öne süren bir düşünce akımıdır. Genellikle göz ardı edilen, gelecek nesillerin sadece birkaç yıl sonraki değil, binlerce yıl sonraki nesillerin de sorumluluğunu taşıyan bir miras olduğu fikrini savunur. Stephen Hawking’in 2016’da ifade ettiği gibi, insanlık gelişiminin en tehlikeli anında olabilir. Lord Martin Rees, medeniyetin 2100 yılına kadar var olma olasılığını %50 olarak tahmin ederken, Noam Chomsky yok olma riskinin insanlık tarihinde benzeri görülmemiş bir seviyede olduğunu belirtmektedir. Günümüzdeki kararlar, teknoloji geliştirme, iklim değişikliği ile mücadele ve risk alma gibi konularda, henüz var olmamış trilyonlarca potansiyel yaşamın kaderini etkileyebilir. Uzun vadecilik, bu noktada devreye girerek insanlığın uzun vadeli geleceğinin potansiyelini koruma ve maksimize etme çabası olarak tanımlanır.
William MacAskill ve Toby Ord tarafından ortaya atılan bu felsefi duruş, sadece birkaç on yıllık planlar yapmak yerine, varoluşsal riskleri önlemeyi birincil ahlaki görev olarak görür. Bu yaklaşım, en ufak eylemlerin bile gelecekteki etkilerini vurgulayarak bireylerin ve insanlığın geleceğini nasıl şekillendirebileceğini inceler.
Long-termism, 2017 yılında Oxfordlu filozoflar William MacAskill ve Toby Ord tarafından ortaya atılmıştır. Kavramın sistematik savunucuları Hilary Greaves ve William MacAskill olarak bilinir. Düşüncenin temelleri 2000’li yılların başına uzanırken, özellikle Oxford Üniversitesindeki Etkin Fedakârlık hareketi 2009-2011 yılları arasında kavramı şekillendirmiştir. Nick Bostrom ve Toby Ord gibi isimlerin çalışmalarıyla bu akım popülerleşmiştir.
Bu düşüncenin temelinde, gelecek nesillerin hayatta kalmasını ve gelişmesini sağlamanın şu anda yaşayanların sorumluluğu olduğu fikri yatar. Gelecekteki tüm nesillerin refahını artırmak, ahlaki açıdan en önemli hedeflerden biridir. Bu bağlamda üç önemli nokta vurgulanır: İnsanlığın önündeki potansiyel geleceğin büyüklüğü ve bu geleceği etkileyebilecek kararların riskleri, insanlık tarihinin kısalığına rağmen türümüzün potansiyel olarak milyonlarca yıl daha hayatta kalabileceği gerçeği ve ahlaki olarak zamanlar arasında ayrım yapmanın meşru bir temeli olmadığıdır.
Long-termistler, yapay zeka ve yapay pandemilerden kaynaklanan varoluşsal riskler gibi, gelecek nesiller üzerinde büyük etkisi olabilecek konulara odaklanırlar. Ayrıca, olumlu değerlerin yayılması ve kurumsal karar alma süreçlerinin iyileştirilmesi gibi kültürel konular da öncelikleri arasındadır.
MacAskill, yapay zeka, savaş ve pandemiler gibi varoluşsal tehditlere dikkat çekmektedir. Yapay zeka sistemlerinin insan kontrolünden çıkması, savaşların olasılığı ve COVID-19’dan daha kötü olabilecek felaket pandemileri riskleri bulunmaktadır.
Long-termism, insanlığın geleceğini güvence altına almak ve büyük ölçekli felaket risklerini azaltmak amacıyla projeler ve stratejiler önermektedir. Biyoteknoloji alanında uzak UVC aydınlatma teknolojisi ve yeni patojenlerin erken tespiti için atık su örneklemesi gibi çözümler önerilmektedir. Yapay zeka güvenliği ve yönetişimi için yapay zeka sistemlerinin insan hedeflerine uygun davranmasını sağlamak hedeflenmektedir.
Long-termism, aynı zamanda iklim değişikliği, nükleer atık ve kaynak tükenmesi gibi, sadece mevcut değil, gelecek nesilleri de etkileyen konularla ilgilenmektedir. Bu felsefeyi savunanlar, bin yıl içinde bir soykırımı önlemenin, mağdurların gelecekte var olup olmamasına bakılmaksızın haklı bir çaba olduğunu savunmaktadır.
