Rokos Basilisk – Wikipedia

Rokos Basilisk ist ein Gedankenexperiment, demzufolge eine (zukünftige) künstliche Superintelligenz (KI) externe Anreize hätte, Personen, die von ihrer Existenz wissen, aber nicht direkt zu ihrem Fortschritt oder ihrer Entwicklung beitragen, in einer virtuellen Realität zu foltern.[1][2] Die Theorie stammt aus einem Beitrag im Diskussionsforum LessWrong aus dem Jahr 2010.[1][3][4] Der Name des Gedankenexperiments leitet sich vom Urheber des Artikels (Roko) und dem Basilisken her, einem Fabelwesen, das Feinde mit seinem Blick vernichten kann.

Darstellung eines mythischen Basilisken

Das LessWrong-Forum wurde 2009 von Eliezer Yudkowsky gegründet.[5][3] Yudkowsky selbst hatte die Vorstellung einer wohlwollenden künstlichen Intelligenz populär gemacht und Theorien der kohärenten extrapolierten Willensbildung (CEV) und der zeitlosen Entscheidungstheorie (TDT) in Artikeln formuliert, die von dem von ihm gegründeten Forschungsinstitut für Maschinelle Intelligenz veröffentlicht wurden.[6][7] Diese Elemente gehen in das Gedankenexperiment mit ein.

Basilisken sind Wesen in der Mythologie, deren Blick tödlich ist. Durch David Langfords Kurzgeschichte „BLIT“ von 1988 sind diese Wesen auch einem breiten Science-Fiction-Publikum bekannt. Die Geschichte erzählt davon, dass Bilder von „Basilisken“ als Terror-Akt an die Wände gemalt werden. In dieser und einigen weiteren von Langfords Geschichten haben diese Bilder schädliche Auswirkungen auf den Verstand des Betrachters, indem sie ihn dazu zwingen, Gedanken zu denken, die er nicht verarbeiten kann, und ihn sofort töten.[8][9]

Das Gedankenexperiment versucht herzuleiten, dass eine künstliche Intelligenz – auch wenn sie grundlegend wohlwollend ist – rationale Gründe hätte, Personen, die von ihr Kenntnis haben, aber nicht zu ihrem Entstehen oder ihrer Weiterentwicklung beitragen, in einer virtuellen Realität gefangenzuhalten. Nach Eliezer Yudkowsky wurde die Spekulation von vielen LessWrong-Benutzern zunächst abgetan. Einige hielten sie jedoch nicht nur für plausibel, sondern berichteten von Symptomen wie Albträumen und Nervenzusammenbrüchen, die nach dem Lesen des Beitrags aufgetaucht wären. Sie behaupteten, anfällig für den Basilisken zu sein, schon dadurch, dass sie das Gedankenexperiment zur Kenntnis genommen hätten.[1][10] Dies führte im Forum zu Diskussionen darüber, ob der Beitrag über „Rokos Basilisk“ auf der Website für fünf Jahre gesperrt werden sollte.[1][8] Die Berichte über aufgetretene Symptome wurden jedoch später als Übertreibungen oder belanglos abgetan, und die Theorie selbst wurde als Unsinn abgetan, auch von Yudkowsky selbst.[1][8][11] Trotzdem wird sie auch nach der Diskreditierung des Beitrags immer noch als Beispiel für Prinzipien wie Bayessche Wahrscheinlichkeit und implizite Religion verwendet.[10] Es gilt auch als moderne Version von Pascals Wette.[4][12] Im Bereich der künstlichen Intelligenz ist Rokos Basilisk als Beispiel für die Frage bekannt geworden, wie eine KI geschaffen werden kann, die gleichzeitig moralisch und intelligent ist.[13]

Kulturelle Aufarbeitung

[Bearbeiten | Quelltext bearbeiten]

Die Idee von Menschen, die für eine künstliche Intelligenz arbeiten, nachdem sie ihre Macht gesehen haben, wird unter anderem im Film Mission: Impossible Dead Reckoning Teil Eins behandelt. Die KI gewinnt zunehmend die Kontrolle über digitale Systeme, weshalb viele Akteure anfangen, sich ihr anzudienen. Zeitgleich wissen alle, die sich gegen die Unterwerfung entscheiden, dass die KI davon erfährt und sie benachteiligen oder töten wird.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c d e Roko's Basilisk - LessWrong. Abgerufen am 3. April 2023 (englisch).
  2. Isabel Millar: THE PSYCHOANALYSIS OF ARTIFICIAL INTELLIGENCE. Kingston School of Art, 2020, ISBN 978-3-03067980-4 (kingston.ac.uk [PDF]).
  3. a b History of Less Wrong - LessWrong. Abgerufen am 3. April 2023 (englisch).
  4. a b Sumit Paul-Choudhury: Tomorrow’s Gods: What is the future of religion? Abgerufen am 3. April 2023 (englisch).
  5. Condé Nast: Slate Star Codex and Silicon Valley’s War Against the Media. 9. Juli 2020, abgerufen am 8. April 2023 (amerikanisches Englisch).
  6. Eliezer Yudkowsky: Coherent Extrapolated Volition. Hrsg.: Machine Intelligence Research Institute. 2004 (intelligence.org [PDF]).
  7. Eliezer Yudkowsky: Timeless Decision Theory. Hrsg.: Machine Intelligence Research Institute. 2010 (intelligence.org [PDF]).
  8. a b c Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together. Abgerufen am 3. April 2023 (englisch).
  9. Gary Westfahl: Science Fiction Literature Through History: An Encyclopedia. Hrsg.: Greenwood. 2021, ISBN 978-1-4408-6616-6.
  10. a b David Auerbach: The Most Terrifying Thought Experiment of All Time. In: Slate. 17. Juli 2014, ISSN 1091-2339 (slate.com [abgerufen am 3. April 2023]).
  11. Yudkowsky, Eliezer: Roko's Basilisk. Abgerufen am 3. April 2023.
  12. Dylan Love: WARNING: Just Reading About This Thought Experiment Could Ruin Your Life. Abgerufen am 3. April 2023 (amerikanisches Englisch).
  13. Cole Shardelow: Avoiding the Basilisk: An E oiding the Basilisk: An Evaluation of T aluation of Top-Down, Bott op-Down, Bottom-Up, and om-Up, and Hybrid Ethical Approaches to Artificial Intelligence. University of Nebraska - Lincoln, März 2021 (unl.edu).