Kolumne „Kreative Zerstörung“: Silicon Sampling ist Cambridge Analytica auf Steroiden

Miriam Meckel ist deutsche Publizistin und Unternehmerin. Sie ist Mitgründerin und CEO der ada Learning GmbH. Außerdem lehrt sie als Professorin für Kommunikationsmanagement an der Universität St. Gallen.
Bei einem Algorithmus von „Treue“ zu sprechen, führt auf die falsche Fährte. Sogleich kommen einem die Dating-Apps wie Tinder und Bumble in den Sinn, bei denen Treue vermutlich nicht der erste Begriff in einer lebhaften Assoziationskette ist. Und doch ist „Treue“ eine Eigenschaft, die unseren Umgang mit Algorithmen revolutionieren und unsere Welt verändern wird.
Ein Forschungsteam der Brigham Young University in Utah hat herausgefunden, wie gut große Sprachmodelle wie ChatGPT darin sind, kleinteilige demografische Merkmale abzubilden. Sie spiegeln in ihren Verzerrungen getreu uns Menschen. Damit können sie die Meinungen echter Menschen für Meinungsumfragen und Forschungszwecke simulieren. Die Forscherinnen und Forscher nennen das „algorithmische Treue“ („algorithmic fidelity“).
Sie haben damit eine Eigenschaft der Sprachmodelle gefunden, die zum einen bahnbrechende Veränderungen mit sich bringt für die Markt- und Meinungsforschung. Zum anderen ist das ein Schritt in Richtung der existenziellen Untreue, die unseren künftigen menschlichen Umgang mit uns selbst ausmachen wird.
Längst ist klar geworden wie gut Künstliche Intelligenz, vor allem die großen Sprachmodelle, darin ist, uns Menschen zu imitieren. Das Konzept der US-Forschungsgruppe hebt diese Erkenntnis auf ein ganz anderes Level. Wenn generative KI ganze Bevölkerungsgruppen exakt simulieren kann, so argumentieren die Forscher, dann brauchen wir keine realen Menschen mehr zu befragen, um zu verstehen, was bestimmte soziale Schichten, Nutzerinnen oder Käufergruppen wollen.





