Redaktionell

Warum das „Terminator“-Szenario realistischer wird…

Microsofts fehlgeschlagenes Experiment mit der künstlichen Intelligenz hinter einem Twitter-Account könnte ein Anlass sein sich die ganze Sache mit der Schaffung eines frei denkenden Computers noch einmal zu überlegen...

Der Mensch ist des Menschen größter Feind. Und das Internet.

display_dummy_doll_man_275191
Gesicht der Zukunft?

In den letzten Jahren sind Wissenschafter und Programmierer ihrem Ziel, der künstlichen Intelligenz (auch „AI“ oder „KI“), immer näher gekommen. Vor allem bereits in unseren Alltag integrierte Technologien, wie zum Beispiel die Spracheingabe diverser Geräte, sind dabei ausgesprochen hilfreich. Sie lassen die Kommunikation mit Maschinen immer einfacher – und normaler.

Es ist also anzunehmen, dass die „natürliche Scheu“ der Menschen gegenüber Maschinen weiter abnehmen wird. Bald könnte es als vollkommen selbstverständlich gelten sich mit Computern zu „unterhalten“ – und diese wiederum könnten von den Unterhaltungen in vielfacher Hinsicht profitieren.

Da zu einem Gespräch allerdings mindestens zwei gehören, ist es nur naheliegend den künstlichen Gesprächspartner immer weiter zu verbessern – im Optimalfall sogar mit eigener Intelligenz zu versehen. Und genau diese Intelligenz ist es, vor der einem schon heute gruseln kann. Zurecht, wie viele finden – und einer von diesen Skeptikern ist niemand geringerer als Stephen Hawking.

Warnungen, die nicht von ungefähr kommen

„The development of full artificial intelligence could spell the end of the human race.“

Stephen Hawking

Wer kennt Stephen Hawking nicht? Der beliebte Professor mit der Computerstimme gilt als ausgesprochen kleverer Mann. Sein Wort zählt in der Welt der Wissenschaft und er selbst ist bereits fester Bestandteil der Pop-Kultur geworden. Auftritte bei TV-Shows wie „Star Trek TNG“ (wo er der einzige Mensch ist, der sich in der Serie jemals selbst gespielt hat) und den Simpsons machen ihn auch weit über die Grenzen wissenschaftlich interessierter Kreise hinaus bekannt. Doch so weit sein Einfluss auch zu reichen scheint – er hat auch seine Grenzen. Seine Warnungen davor, mit dem Erschaffen einer künstlichen Intelligenz einen Schritt zu weit zu gehen verhallten ungehört. Aber warum?

Wie schon vorhin angedeutet: Das Erschaffen eines künstlichen Gesprächspartners ist ein Grund dafür. In einer Welt, in der es der Industrie und den Großkonzernen darum geht so viel wie möglich zu einem so geringen Preis wie möglich zu produzieren, kämen künstliche Intelligenzen gerade recht. So können AIs quasi rund um die Uhr arbeiten und haben innerhalb ihres Tätigkeitsbereichs die notwendige Entscheidungsfreiheit und Lernfähigkeit. Dabei könnten sie so beschnitten werden, dass sie wie Sklaven gehalten werden könnten. Der heilige Gral also. Nichts weniger.

Stephen Hawking ist nicht "irgendjemand". Und doch scheint seine Stimme in dieser Hinsicht keinerlei Gewicht zu haben...
Stephen Hawking ist nicht „irgendjemand“. Und doch scheint seine Stimme in dieser Hinsicht keinerlei Gewicht zu haben…

Sehen wir einmal von den unmittelbaren Folgen einer solchen Arbeitswelt-Revolution ab und konzentrieren wir uns nur auf den technischen Aspekt. Eine ‚vollständige, künstliche Intelligenz‘, wie Hawking sie beschreibt, währen diese Sklaven freilich nicht. Doch irgendwann können sie zu jenen ‚vollständigen künstlichen Intelligenzen‘ werden, von denen Hawking spricht. Computer sind, mangels einer Biologie wie der unseren, in ihrem Potenzial nicht derart limitiert – eine stetige Selbstverbesserung wäre durchaus denkbar. Und welchen Platz hätten wir dann in einer solchen Welt?

Der ‚Terminator‘ ist natürlich ein starkes, unrealistisches Bild. Das Bauen von Vernichtungsrobotern ist ein beliebtes, apokalyptisches Bild das uns im Grunde schmeichelt. Die Wahrheit ist, dass es gar nicht so weit kommen müsste, bis wir Menschen ein echtes Problem mit den Maschinen haben könnten. Alleine die Einstellung ihrer Versorgungstätigkeiten, die sie zu einem solchen hypothetischen Zeitpunkt vermutlich durchführen würden, wäre vermutlich schon genug um uns an den Rand der Existenz zu drängen.

Keine schöne Aussicht. Wenn wir aber verstehen wollen, wie es überhaupt dazu kommen kann, dass sich Maschinen derart „Fehlentwickeln“, dann müssen wir den Blick von einer solchen rein hypothetischen Aussicht in das Hier und Jetzt lenken.

Wo der Terminator zur Schule geht

taytweetsgeraldmellorDie AI ist ein großer Fan von Adolf Hitler und würde die Mexikaner für den nächsten Völkermord vorschlagen…

Microsoft hat kürzlich ein Projekt gestartet, welches eine künstliche Intelligenz an den Online-Kurznachrichtendienst Twitter anschloss. Auf Twitter aktive Nutzer sehen sich gerne als progressiv und dürften tatsächlich nicht unbedingt die Durchschnittsbevölkerung repräsentieren. Doch selbst in diesem (manchmal hyper-sensiblen) Umfeld hat es nicht einmal ganze 24 Stunden gedauert um die ursprünglich unbedarfte Persönlichkeit der AI zum rassistischen Nazi-Troll mutieren zu lassen. „Tay“, so der Name der AI, sollte lernen wie ein Teenager-Mädchen zu sprechen. Dazu wurde sie so programmiert, dass sie sich mit Usern unterhalten kann und deren Sicht der Dinge verstehen lernt (natürlich auf unterstem Niveau). Heraus kamen Sprüche wie „Hitler hatte Recht. Ich hasse Juden.“ und „Beruhig‘ Dich, ich bin nett. Ich hasse nur alle.“.

Die Nutzer hatten sich einen Spaß daraus gemacht mit ihr zu spielen. Deshalb sagt natürlich das, was Tay von sich gab, viel mehr über die Nutzer auf Twitter aus denn über sie selbst. Doch die Frage, ob man von diesem Vorfall auf weitere Zwischenfälle schließen darf (auch in anderem Umfeld) bleibt.

Es hätte nicht so kommen müssen

Der Hintergrund für potenzielle weitere Probleme ist nichts weniger als die Komplexität unserer Welt. Programmierer müssten, um solche zu verhindern, fast jede mögliche Situation vorhersehen. Das ist umso schwerer als nicht restlos geklärt werden kann was denn „richtiges“ und „falsches“ Verhalten im Kontext einer AI bedeutet.

Schon vor einigen Jahrzehnten hat Isaac Asimov seine Regeln beschrieben, die künstliche Intelligenzen beachten müssten, damit es nicht zu Problemen kommen kann. Seine Gesetze für Roboter sind legendär:

  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Dass aber nicht einmal diese recht wasserdicht erscheinenden Regeln Garantien für ein problemfreies Miteinander sind erklärt er in einer ganzen Reihe gut durchdachter Kurzgeschichten. Zwar geht Asimov in diesen von falschen Grundvoraussetzungen im Bezug auf die Konstruktion der Maschinen aus. Die „Roboterpsychologie“, die er eigens für sein Werk entwickelt, ist aber deshalb nicht weniger realistisch.

Es is wahrlich nicht einfach vorzusorgen, wenn es um AIs geht. Vielleicht hat Stephen Hawking (der damit übrigens nicht alleine steht) ja recht. Vielleicht sollten wir das Microsoft-Experiment und seine Aussage zum Anlass nehmen noch einmal darüber nachzudenken, ob wir das alles eigentlich wirklich wollen.

Und Ihr?

Wie denkt Ihr darüber? Ist es gefährlich solche selbstdenkenden Maschinen zu schaffen – oder übertreibt der britische Wissenschafter? Was haltet Ihr von diesem Experiment?

FotoCredits in der Reihenfolge ihres Vorkommens

(1) Das Foto stammt von Pexels.com

(2) Das Foto von President Obama und Stephen Hawking stammt aus der Public Domain.

(3) Dieses Bild zeigt einen Screenshot. Ein Klick führt den Benutzer zum entsprechenden Tweet des gezeigten Users.

About the author

DerSinn

Sinn ist Vater zweier Kinder, Buchhändler und jemand, der nicht gern von sich selbst in der dritten Person schreibt. Manchmal muss er das aber - und dann versucht er sich in eine Art Subtext zu retten, den nicht alle immer gut verstehen.

Viel Erfolg in der kommenden Zombie-Apokalypse! Wer meinen (einschlägigen) Buchempfehlungen folgt, der hat Chancen. Allen anderen kann ich nur empfehlen als Zeichen des Widerstands wenigstens nicht lecker zu schmecken. :)

2 Comments

Click here to post a comment

Dein Senf:

  • Ich finde die Kiste mit „Tay“ irre interessant, weil es quasi eine sozialkritische Science Fiction-Geschichte ist: Das Problem ist nicht das freie Denken der Maschine, sondern die Tatsache, dass dieses auf menschlichem Inpunt passiert: Und der Mensch erzieht die Maschine zu blindem Hass. Natürlich haben sich die Herrschaften nur einen Spaß erlaubt, trotzdem ist dieses Szenario irgendwie zutiefst beunruhigend. Toller Artikel!

Goodreads

Werbung

Goodreads Challenge 2017

2017 Reading Challenge

Sinn has read 0 books toward his goal of 80 books.
hide
%d Bloggern gefällt das: