KI-Modelle zeigen menschenähnliche Vorlieben für Zahlen

KI-Modelle zeigen menschenähnliche Vorlieben für Zahlen

KI-Modelle faszinieren uns immer wieder mit ihren Fähigkeiten und Grenzen und zeigen seltsame Verhaltensweisen, die Licht auf ihre Grundform werfen. Eine bemerkenswerte Beobachtung ist, dass diese Algorithmen offenbar Präferenzen für bestimmte Zahlen haben, ähnlich wie Menschen Zahlen auswählen. Dies ist nicht nur eine oberflächliche Kuriosität; Es liefert Informationen über die Funktionsweise dieser Modelle.

Menschen haben ein gut dokumentiertes Problem mit Zufälligkeit, da sie häufig zu viel darüber nachdenken oder falsch interpretieren, was sie wirklich bedeutet. Wenn man beispielsweise darum bittet, das Ergebnis von 100 Münzwürfen vorherzusagen, berücksichtigen menschliche Vorhersagen in der Regel nicht die für echte Zufallsfolgen charakteristischen Kopf-Zahl-Streifen. In ähnlicher Weise bevorzugen Menschen bei der Wahl einer Zahl zwischen 0 und 100 tendenziell „neutralere“ Optionen, beispielsweise solche, die auf 7 enden, gegenüber extremen oder optisch auffälligen Zahlen.

Unerwarteterweise weisen KI-Systeme die gleiche Voreingenommenheit bei der Zahlenauswahl auf wie Menschen. In einem informellen Experiment, das von Gramener-Ingenieuren durchgeführt wurde, wurden viele große Sprachmodelle (LLM-Chatbots) gebeten, eine Zahl zwischen 0 und 100 auszuwählen. Die Endergebnisse waren keineswegs zufällig . Selbst wenn die Einstellungen geändert wurden, um die Unvorhersehbarkeit zu fördern und die Zufälligkeit zu erhöhen, zeigte jedes Modell kontinuierlich eine Präferenz für bestimmte Zahlen. Beispielsweise wählte das GPT-3.5 Turbo-Modell von OpenAI häufig 47, Anthropics Claude 3 Haiku aus /claude-3-haiku) entschied sich für 42, während Gemini sich für 72 entschied. Ebenso hatten andere Modelle ihre eigenen Zahlenpräferenzen.

Darüber hinaus verzichteten diese Modelle auf niedrige und hohe Zahlen und entschieden sich selten für zweistellige oder runde Zahlen, es sei denn, die Temperatureinstellung war maximiert, was dazu führte, dass Gemini weniger häufig wählte.

Dies ist nicht auf Bewusstsein oder das Wissen um Zufälligkeit zurückzuführen, sondern vielmehr auf eine Widerspiegelung der Trainingsdaten der Modelle. Ohne wirkliche Logik liefern diese Systeme Antworten nur auf der Grundlage der Häufigkeit, mit der ihnen Daten zugeführt wurden. Die Wahrscheinlichkeit, dass eine Zahl vom Modell ausgewählt wird, ist geringer, wenn sie nicht häufig als Antwort im Trainingssatz vorkommt.

Diese Nachahmung menschenähnlicher Wahlmuster bei scheinbar einfachen Aufgaben wie der Zahlenauswahl zeigt, wie KI-Modelle die in ihrem Training vorhandenen Vorurteile und Verhaltensweisen widerspiegeln Daten, die oft zu anthropomorphen Interpretationen ihrer Handlungen führen.

Obwohl diese Modelle scheinbar wie Menschen „denken“, mangelt es ihnen an Verständnis und Bewusstsein; Sie funktionieren nur auf der Grundlage der von ihnen verarbeiteten Daten, wodurch sowohl das Potenzial als auch die Grenzen der gegenwärtigen KI-Technologien deutlich werden.

Code Labs Academy © 2024 Alle Rechte vorbehalten.