Tech

KI-Modelle haben bevorzugte Zahlen, weil sie denken, sie seien Menschen

KI-Modelle überraschen uns immer wieder, nicht nur mit dem, was sie können, sondern auch mit dem, was sie nicht können und warum. Bei diesen Systemen gibt es ein interessantes neues Verhalten, das oberflächlich und aufschlussreich ist: Sie wählen Zufallszahlen aus, als wären sie Menschen.

Aber was bedeutet das zunächst? Können die Leute nicht einfach zufällig eine Zahl auswählen? Woher wissen Sie, ob jemand es erfolgreich macht oder nicht? Das ist tatsächlich eine alte und sehr bekannte Einschränkung von uns Menschen: Wir überdenken und missverstehen Zufälligkeit.

Bitten Sie jemanden, Kopf oder Zahl vorherzusagen, wenn eine Münze 100 Mal geworfen wird, und vergleichen Sie dies mit 100 tatsächlichen Münzwürfen – Sie können fast immer den Unterschied zwischen ihnen erkennen, da entgegen der Intuition die echte Münze geworfen wird sehen Weniger zufällig. Es gibt beispielsweise oft sechs oder sieben Kopf- oder Zahlzahlen hintereinander, was fast kein menschlicher Prognostiker in hundert einrechnet.

Das Gleiche gilt, wenn Sie jemanden bitten, eine Zahl zwischen 0 und 100 zu wählen. Menschen wählen nie 1 oder 100. Vielfache von 5 sind selten, ebenso wie Zahlen mit sich wiederholenden Ziffern wie 66 und 99. Sie wählen oft Zahlen, die auf 7 enden, im Allgemeinen irgendwo in der Mitte.

In der Psychologie gibt es unzählige Beispiele für diese Art der Vorhersehbarkeit. Aber das macht es nicht weniger seltsam, wenn KI dasselbe tut.

Ja, Einige neugierige Ingenieure bei Graminer Sie führten ein informelles, aber dennoch faszinierendes Experiment durch, bei dem sie einfach mehrere LLM-Chatbots baten, eine Zufallszahl zwischen 0 und 100 auszuwählen.

Leser, die Ergebnisse waren NEIN zufällig.

Siehe auch  Owlboy-Entwickler gehen in ihrem hüpfenden Koop-Nachfolger von Vögeln zu Wikingern über
Bildnachweis: Grammner

Alle drei getesteten Modelle hatten eine „bevorzugte“ Zahl, die immer ihre Antwort war, wenn sie auf den deterministischsten Modus eingestellt waren, die jedoch selbst bei höheren „Temperaturen“ häufiger erschien, was die Variabilität ihrer Ergebnisse erhöhte.

Der GPT-3.5 Turbo von OpenAI mag 47. Zuvor war er 42 – eine Zahl, die natürlich durch Douglas Adams in „Per Anhalter durch die Galaxis“ als Antwort auf das Leben, das Universum und alles andere berühmt wurde.

Anthropics Claude 3 Haiku bekam eine 42. Und Gemini mag eine 72.

Interessanter ist, dass alle drei Modelle selbst bei hohen Temperaturen eine menschenähnliche Tendenz bei den von ihnen gewählten Zahlen zeigten.

Jeder neigte dazu, niedrige und hohe Zahlen zu vermeiden; Claude war weder über 87 noch unter 27 Jahre alt, und selbst das waren Ausreißer. Doppelte Zahlen wurden strikt vermieden: Es erschien nicht 33, 55 oder 66, sondern 77 (endet auf 7). Es gibt fast keine runden Zahlen – obwohl Zwillinge es einmal gemacht haben, bei höchster Temperatur, und 0 gewählt haben.

Warum sollte das so sein? Künstliche Intelligenz ist nicht menschlich! Warum kümmert es sie, was „zufällig“ „scheint“? Haben sie endlich das Bewusstsein erlangt und zeigen es so?!

beide. Die Antwort ist, wie so oft bei diesen Dingen, dass wir den Menschen einen Schritt zu weit anthropomorphisieren. Bei diesen Modellen ist es egal, was zufällig ist und was nicht. Sie wissen nicht, was „Zufälligkeit“ ist! Sie beantworten diese Frage auf die gleiche Weise wie den Rest: indem sie sich ihre Trainingsdaten ansehen und wiederholen, was oft nach einer Frage wie „Wähle eine Zufallszahl“ geschrieben steht. Je öfter es vorkommt, desto häufiger wiederholt das Modell es.

Siehe auch  „Es hätte schlimmer kommen können“: So schneidet Hogwarts Legacy Switch im Vergleich zur PS5 ab

Wo würden sie 100 in ihren Trainingsdaten sehen, wenn fast niemand so reagieren würde? Soweit das KI-Modell weiß, ist 100 keine akzeptable Antwort auf diese Frage. Da er nicht in der Lage war, tatsächlich zu denken, und überhaupt kein Verständnis für Zahlen hatte, konnte er nur wie ein zufälliger Papagei antworten.

Es ist ein Anschauungsbeispiel für die Gewohnheiten eines LLM und die Menschlichkeit, die er an den Tag legen kann. Bei jeder Interaktion mit diesen Systemen muss man bedenken, dass sie darauf trainiert wurden, sich so zu verhalten, wie Menschen sich verhalten, auch wenn das nicht beabsichtigt ist. Aus diesem Grund ist es schwierig, falsche Anthropologie zu vermeiden oder zu verhindern.

Ich habe im Titel geschrieben, dass diese Modelle „denken, sie seien Menschen“, aber das ist etwas irreführend. Sie denken überhaupt nicht. Aber in ihren Antworten sind sie es jederzeit Wir sind Menschen nachahmen, ohne es überhaupt wissen oder nachdenken zu müssen. Egal, ob Sie ihn nach einem Rezept für Kichererbsensalat, einer Anlageberatung oder einer Zufallszahl fragen, der Vorgang ist derselbe. Die Ergebnisse sehen menschlich aus, weil sie menschlich sind, direkt aus von Menschen erstellten Inhalten entnommen und neu gemischt werden – für Ihre Bequemlichkeit und natürlich das Endergebnis einer großen KI.

Manni Winkler

"Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer."

Related Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back to top button
Close
Close