Effektiver Altruismus warnt vor Risiken. Hat es sie auch motiviert?

0 96

Der in Ungnade gefallene Krypto-Unternehmer Sam Bankman-Fried möchte, dass die Menschen wissen, dass die enormen Risiken, die er eingegangen ist, im Dienste der Menschheit standen – das war zumindest der Eindruck, den er letzte Woche in einem Interview auf dem DealBook Summit der New York Times zu vermitteln versuchte. Der bekanntermaßen nervöse Bankman-Fried sah relativ gedämpft aus, als er aus einem schwach beleuchteten Raum auf den Bahamas hereinzoomte, einem Steuerparadies, dessen regulatorisches Umfeld besonders für seine Krypto-Ambitionen geeignet war.

„Sehen Sie, es gibt eine Menge Dinge, von denen ich glaube, dass sie wirklich massive Auswirkungen auf die Welt haben“, sagte Bankman-Fried. „Und davon heile ich letztlich am meisten. Und, ich meine, ich denke ehrlich gesagt, dass die Blockchain-Industrie einen erheblichen positiven Einfluss haben könnte. Ich habe viel über Moskitonetze und Malaria nachgedacht, über die Rettung von Menschen vor Krankheiten, an denen niemand sterben sollte.“

Dies ist die Sprache des effektiven Altruismus – oder EA – einer philanthropischen Bewegung, die auf der Nutzung von Vernunft und Daten basiert, um Gutes zu tun. Bankman-Fried hatte lange seine EA-Gutgläubigkeit zur Schau gestellt, um sich von anderen Krypto-Milliardären abzuheben. Verdiene viel, um viel zu geben. Lenken Sie Ihr Kopfgeld dorthin, wo es am wichtigsten ist. Jetzt ist seine Krypto-Börse FTX zusammengebrochen, hat Kleinanleger ausgelöscht und Chaos in der Branche angerichtet. Um Bankman-Fried zu hören, war die Idee, Milliarden durch seine Krypto-Handelsfirma Alameda Research und FTX, die Börse, die er dafür geschaffen hat, zu verdienen – und die Erlöse dabei in die bescheidene Sache von „Moskitonetzen und Malaria“ zu leiten das Leben armer Menschen retten.

Aber letzten Sommer erzählte Bankman-Fried Gideon Lewis-Kraus vom New Yorker etwas ganz anderes. „Er sagte mir, dass er nie eine Moskitonetz-Phase hatte und dass er kurzfristige Ursachen – globale Gesundheit und Armut – als emotional getrieben ansah“, schrieb Lewis-Kraus im August. Effektive Altruisten sprechen sowohl von „Kurzfristigkeit“ als auch von „Langfristigkeit“. Bankman-Fried sagte, er wolle mit seinem Geld langfristige Bedrohungen wie die Gefahren einer außer Kontrolle geratenen künstlichen Intelligenz angehen. Wie er es ausdrückte, sollte die Finanzierung für die Ausrottung von Tropenkrankheiten von anderen Menschen kommen, die sich tatsächlich um Tropenkrankheiten kümmern: „Also, nicht ich oder so.“ (Es sieht immer unwahrscheinlicher aus, dass die von ihm gegründeten gemeinnützigen Organisationen ihren finanziellen Verpflichtungen für seine bevorzugten Zwecke nachkommen können.)

Für Uneingeweihte mag die Tatsache, dass Bankman-Fried eine besondere Dringlichkeit darin sah, zu verhindern, dass Killerroboter die Weltherrschaft übernehmen, zu abwegig klingen, um besonders effektiv oder altruistisch zu wirken. Aber es stellt sich heraus, dass sich einige der einflussreichsten EA-Literatur auch mit Killerrobotern beschäftigen.

die Bewegung selbst ist immer noch ein großes Zelt; Es gibt effektive Altruisten, die sich weiterhin gezielten Interventionen mit nachgewiesenen Ergebnissen widmen, einschließlich Impfkampagnen (und natürlich Moskitonetze gegen Malaria). Holden Karnofsky, ein ehemaliger Hedgefonds und Gründer von GiveWell, einer Organisation, die die Kosteneffizienz von Wohltätigkeitsorganisationen bewertet, hat über die Notwendigkeit einer „Diversifizierung der Weltanschauung“ gesprochen – in der Erkenntnis, dass es in einer Welt voller Menschen möglicherweise mehrere Möglichkeiten gibt, messbar Gutes zu tun mit Leid und Ungewissheit.

Die Bücher sind jedoch eine andere Sache. Überlegungen zur unmittelbaren Notwendigkeit verblassen neben Spekulationen über existenzielle Risiken – nicht nur irdische Bedenken über Klimawandel und Pandemien, sondern auch (und vielleicht am ansprechendsten für einige Technologieunternehmer) extravagantere Theorien über Weltraumkolonisierung und KI. Manchmal erinnern mich die Bücher an a Haufen kluger, gut gemeinter Leute, die versuchen, sich gegenseitig zu beeindrucken und zu übertrumpfen, indem sie die nächste seltsame Sache antizipieren. Statt „Weltanschauungsdiversifikation“ gibt es eine bemerkenswerte intellektuelle Homogenität; die dominierenden Stimmen gehören weißen männlichen Philosophen in Oxford.

Nick Bostroms „Superintelligence“ (2014) warnt vor den Gefahren von Maschinen, die lernen könnten, besser zu denken als wir; Toby Ords „The Precipice“ (2020) zählt die Katastrophen auf, die uns vernichten könnten. William MacAskill hat solche Vorzeichen des Weltuntergangs in die freundlichere Sprache des Könnens und des Wie-zu-Machens übersetzt. In seinem jüngsten Bestseller „What We Owe the Future“ (2022) sagt MacAskill, dass die Argumente für einen effektiven Altruismus, der der langfristigen Sichtweise Vorrang einräumt, in drei einfachen Sätzen destilliert werden können: „Menschen der Zukunft zählen. Es könnten viele sein. Wir können ihr Leben verbessern.“

Auf den ersten Blick sieht das alles ganz einfach aus. MacAskill nennt den Langfristismus wiederholt „gesunden Menschenverstand“ und „intuitiv“. Aber jeder dieser anderen Sätze beschönigt eine Menge zusätzlicher Fragen, und MacAskill braucht ein ganzes Buch, um sie zu beantworten. Nehmen Sie die Vorstellung, dass „zukünftige Menschen zählen“. Abgesehen von der Möglichkeit, dass die bloße Kontemplation einer hypothetischen Person für einige reale Menschen überhaupt nicht „intuitiv“ ist, bleibt eine andere Frage: Zählen zukünftige Menschen jetzt mehr oder weniger als bestehende Menschen?

Diese Frage ist wie ein Wendepunkt zwischen Neartermismus und Longtermismus. MacAskill zitiert den Bevölkerungsphilosophen Derek Parfit, dessen Ideen zur Bevölkerungsethik in seinem Buch „Reasons and Persons“ von 1984 Einfluss auf EA hatten. Aussterbeereignis, das eine winzige Bevölkerung verschont hat (die sich vermutlich fortpflanzen würde), weil die Anzahl potenzieller Leben die Anzahl der vorhandenen in den Schatten stellt. es gibt jetzt acht Milliarden Menschen auf der Welt; In „The Precipice“ nennt Ord Parfit seinen Mentor und ermutigt uns, über die kommenden „Billionen von Menschenleben“ nachzudenken.

Wenn Sie ein Utilitarist sind, der sich dem „größten Nutzen für die größte Zahl“ verschrieben hat, sieht die Arithmetik unwiderlegbar aus. Ezra Klein von der Times hat über seine Unterstützung für effektiven Altruismus geschrieben und gleichzeitig nachdenklich die fanatischeren Ausdrucksformen der „mathematischen Erpressung“ der Langzeitphilosophie kritisiert. Aber dem Großteil der Literatur nach zu urteilen, sind es gerade die kategorischeren Behauptungen der Rationalität, die der Bewegung ihr intellektuelles Gütesiegel verliehen haben.

2015 veröffentlichte MacAskill „Doing Good Better“, in dem es ebenfalls um die Tugenden des effektiven Altruismus geht. Seine Bedenken in diesem Buch (Blindheit, Entwurmung) erscheinen geradezu kurios im Vergleich zu den Vermutungen auf der Astralebene (KI, Aufbau einer „interstellaren Zivilisation“), die er in „What We Owe the Future“ weiter verfolgen würde. Der peppige Prosastil ist jedoch gleich geblieben. In beiden Büchern betont er, wie wünschenswert es ist, nach „Vernachlässigung“ zu suchen – nach Problemen, die nicht genug Aufmerksamkeit erregt haben, damit Sie als effektiver Altruist „einflussreicher“ sein können. Der Klimawandel, sagt MacAskill, ist also nicht mehr wirklich dort, wo er ist; Leser sollten sich besser auf „die Themen rund um die KI-Entwicklung“ konzentrieren, die „radikal mehr vernachlässigt“ werden.

Das Denken wird als präzise und ordentlich dargestellt. Wie Bostrom und Ord (und auch Parfit) ist MacAskill ein Philosoph aus Oxford. Er ist auch einer der Begründer des effektiven Altruismus – sowie die Person, die 2012 einen MIT-Studenten namens Sam Bankman-Fried für die Sache des effektiven Altruismus rekrutierte.

Damals muss die Logik der Rekrutierungsstrategie von MacAskill tadellos gewirkt haben. Zu seinen EA-Innovationen gehört die als 80.000 Stunden bekannte Karriereforschungsorganisation, die „Earning to Give“ fördert – die Idee, dass altruistische Menschen Karrieren verfolgen sollten, die ihnen Unmengen von Geld einbringen, das sie dann für EA-Zwecke spenden können.

„Der herkömmliche Rat lautet, wenn Sie etwas bewirken wollen, sollten Sie im gemeinnützigen oder öffentlichen Sektor oder im Bereich der sozialen Verantwortung von Unternehmen arbeiten“, schreibt MacAskill in „Doing Good Better“. Aber konventionell ist langweilig, und wenn die Mathematik Ihnen sagt, dass Ihre Energie effektiver darauf verwendet werden würde, vielversprechende Tech-Savants mit himmelhohem Verdienstpotenzial zu umwerben, wird Ihnen konventionell wahrscheinlich nicht viele neue Rekruten bringen.

„Verdienen zu geben“ hat seine Wurzeln in der Arbeit des radikalen utilitaristischen Philosophen Peter Singer, dessen Essay „Hunger, Wohlstand und Moral“ von 1972 ein grundlegender EA-Text war. Es enthält sein Gleichnis vom ertrinkenden Kind: Wenn Sie an einem flachen Teich vorbeigehen und ein Kind ertrinken sehen, sollten Sie hineinwaten und das Kind retten, auch wenn Sie dabei Ihre Kleidung beschmutzen. Die Extrapolation dieses Prinzips legt nahe, dass, wenn Sie ein Leben retten können, indem Sie einen Geldbetrag spenden, der keine nennenswerten Probleme für Sie darstellt, eine Entscheidung, dieses Geld nicht zu spenden, nicht nur gemeinnützig oder unbarmherzig, sondern auch moralisch falsch wäre.

Singer hat auch sein eigenes Buch über effektiven Altruismus geschrieben, „The Most Good You Can Do“ (2015), in dem er argumentiert, dass der Wechsel ins Finanzwesen eine ausgezeichnete Berufswahl für den aufstrebenden effektiven Altruisten wäre. Er erkennt die Risiken für Schäden an, aber er hält sie für wert. Wenn Sie kein Wohltätigkeitsmitarbeiter werden, werden die Chancen gut stehen, dass jemand anderes die Arbeit erledigt. wohingegen, wenn Sie kein Finanzier werden, der sein Geld verschenkt, wer soll das sagen, wer wer ist tutFinanzier werden will nicht all seine Reichtümer für sich horten?

Dennoch müssen einige Leute Philosophen-Influencer werden, um das Wort zu verbreiten. „Will ist nicht im Finanzbereich tätig“, schreibt Singer und bezieht sich speziell auf MacAskill. „Das liegt daran, dass er glaubt, dass er mehr Gutes getan hat, als wenn er selbst in die Finanzbranche gegangen wäre, wenn er zwei andere Menschen mit ähnlichen Verdienstmöglichkeiten wie seine eigene dazu bringen könnte, Geld zu geben.“

Oder vielleicht nicht. Am 11. November, als FTX inmitten seiner finanziellen Unschuld Insolvenz anmeldete, schrieb MacAskill einen langen Twitter-Thread des Schocks und seiner Qual, als er in Echtzeit mit dem rang, was Bankman-Fried angerichtet hatte.

„Wenn die Beteiligten andere getäuscht und sich an Betrug (ob illegal oder nicht) beteiligt haben, der viele tausend Menschen ihre Ersparnisse kosten kann, haben sie die Prinzipien der effektiven Altruismus-Community vollständig aufgegeben“, schrieb MacAskill in einem Tweet, gefolgt von Screenshots aus „What We Owe the Future“ und Ords „The Precipice“, die die Bedeutung von Ehrlichkeit und Integrität betonten.

Ich vermute, dass Bankman-Fried die relevanten Teile dieser Bücher möglicherweise nicht gelesen hat – falls er überhaupt irgendwelche Teile dieser Bücher gelesen hat. „Ich würde niemals ein Buch lesen“, sagte Bankman-Fried Anfang dieses Jahres. „Büchern stehe ich sehr skeptisch gegenüber. Ich möchte nicht sagen, dass kein Buch jemals lesenswert ist, aber ich glaube tatsächlich an etwas, das dem ziemlich nahe kommt.“

Das Vermeiden von Büchern ist eine effiziente Methode, um die gröbste Version des effektiven Altruismus zu absorbieren und gleichzeitig an den Vorbehalten vorbeizugleiten. In der Taschenbuchausgabe von „Superintelligence“, die einen Rahmen für das Nachdenken über eine Roboter-Apokalypse darstellt, liefert Bostrom das Äquivalent eines Warnschilds an „diejenigen, deren Leben so beschäftigt geworden ist, dass sie eigentlich aufgehört haben lesendie Bücher, die sie kaufen, außer vielleicht ein Blick auf das Inhaltsverzeichnis und die Sachen vorne und hinten.“

Aber die Bücher selbst haben vielleicht ihre eigenen blinden Flecken. Bei all den galaktischen Abhandlungen von MacAskill über „KI-Übernahme“ und die „moralischen Argumente für die Besiedlung des Weltraums“ hat ihn vielleicht die EA-Fixierung auf „Vernachlässigung“ und existenzielle Risiken weniger aufmerksam gegenüber bekannteren Risiken gemacht – menschlich, banal und näher an der Heimat .

Die New York Times

Leave A Reply

Your email address will not be published.