WASHINGTON. Entscheidungen mithilfe von Algorithmen zu treffen, ist nicht nur an US-Hochschulen gängige Praxis. Eine neue Studie zeigt nun, dass Vorhersage-Algorithmen weiße und asiatische Studierende bevorzugen. Dies wirft auch für deutsche Bildungseinrichtungen wichtige Fragen auf.

Während deutsche Hochschulen vor allem auf den Notenschnitt setzen, gehört es besonders für angelsächsische Hochschulen zur Normalität, Zulassungsentscheidungen auf Basis von Prognosealgorithmen zur Vorhersage des Studienerfolgs zu treffen. Offenbar sind diese Vorhersagealgorithmen allerdings häufig rassistisch voreingenommen gegenüber schwarzen und hispanischen Studierenden. Dies zeigt eine neue Studie, durchgeführt unter der Federführung von Denisa Gándara (University of Texas at Austin), die ergab, dass Vorhersagemodelle den potenziellen Erfolg weißer und asiatischer Studierender überschätzen.
Die untersuchten Modelle sagten das Versagen schwarzer und hispanischer Studierender in 19 Prozent bzw. 21 Prozent der Fälle falsch voraus, verglichen mit falsch-negativen Raten für weiße und asiatische Gruppen von 12 Prozent bzw. 6 Prozent. Gleichzeitig sagen die Modelle den Erfolg weißer und asiatischer Studierender in 65 Prozent bzw. 73 Prozent der Fälle falsch voraus, verglichen mit falsch-negativen Raten für schwarze und hispanische Studierende von 33 Prozent bzw. 28 Prozent.
„Unsere Ergebnisse zeigen ein beunruhigendes Muster: Modelle, die häufig verwendete Merkmale zur Vorhersage des Erfolgs von College-Studierenden verwenden, prognostizieren letztendlich schlechtere Ergebnisse für ethnische Minderheitengruppen und sind oft ungenau“, fasst Gándaras Co-Autor Hadis Anahideh zusammen, Assistenzprofessor für Wirtschaftsingenieurwesen an der University of Illinois. „Dies unterstreicht die Notwendigkeit, inhärente Verzerrungen in der prädiktiven Analytik in Bildungseinrichtungen anzugehen.“
Die Studie verwendete US-weit repräsentative Daten aus einem Zeitraum von zehn Jahren. Die verwendeten Daten des National Center for Education Statistics des US-Bildungsministeriums, umfassten Datensätze von rund 15.000 Studentinnen und Studenten.
Die Ergebnisse der Studie weisen auch auf den potenziellen Wert der Verwendung statistischer Techniken zur Minderung von Verzerrungen hin, obwohl es immer noch Einschränkungen gibt. „Während unsere Forschung verschiedene Techniken zur Minderung von Verzerrungen testete, stellten wir fest, dass kein einziger Ansatz Unterschiede bei den Vorhersageergebnissen oder der Genauigkeit zwischen verschiedenen Fairnesskonzepten vollständig beseitigt“, sagte Anahideh.
Hochschulen greifen zunehmend auf Algorithmen und künstliche Intelligenz zurück, um den Studienerfolg vorherzusagen und so verschiedene Entscheidungen zu treffen, neben Zulassungen, etwa auch Entscheiden über Budgets und Studienerfolgsinterventionen. „Da Colleges und Universitäten immer stärker auf Daten basieren, ist es unerlässlich, dass Vorhersagemodelle unter Berücksichtigung ihrer Voreingenommenheit und möglichen Folgen entwickelt werden“, betont Denisa Gándara. „Es ist entscheidend, dass sich die institutionellen Nutzer der historischen Diskriminierung bewusst sind, die sich in den Daten widerspiegelt, und Gruppen, die rassistisch bedingten sozialen Nachteilen ausgesetzt waren, nicht benachteiligen.“
Die Autoren der Studie stellten fest, dass die praktischen Auswirkungen der Ergebnisse erheblich sind, aber davon abhängen, wie die vorhergesagten Ergebnisse verwendet werden. Wenn Modelle zur Entscheidungsfindung bei der Zulassung zu Hochschulen verwendet werden, könnte etwas die Zulassung von Studierenden, die Minderheiten angehören verweigert werden, wenn die Modelle zeigen, dass frühere Studierende derselben Kategorie weniger erfolgreich waren. Forscherinnen und Forscher hätten außerdem davor gewarnt, dass Vorhersagen zu einer Bildungsnachverfolgung führen könnten, die schwarze und hispanische Studierende dazu ermutigen könnte, Kurse oder Hauptfächer zu belegen, die als weniger anspruchsvoll wahrgenommen werden.
Auf der anderen Seite können voreingenommene Modelle zu einer stärkeren Unterstützung benachteiligter Studierender führen. Indem das Modell fälschlicherweise das Scheitern für erfolgreiche Studierende aus ethnischen Minderheiten vorhersagt, kann es diesen Studierenden mehr Ressourcen zukommen lassen. Selbst dann, so Gándara, müssten Praktiker mithin darauf achten, keine Defizitnarrative über Studierende aus Minderheiten zu produzieren und sie so zu behandeln, als hätten sie eine geringere Erfolgswahrscheinlichkeit.
„Unsere Ergebnisse weisen darauf hin, wie wichtig es ist, dass Institutionen Endnutzer über das Potenzial algorithmischer Voreingenommenheit schulen“, sagte Gándara. „Sensibilisierung kann Nutzern helfen, Vorhersagen für einzelne Studierende zu kontextualisieren und fundiertere Entscheidungen zu treffen.“ (pm)
- Die Studie ist in AERA open erschienen:
Gándara, D., Anahideh, H., Ison, M., & Picchiarini, L. (2024). Inside the black box: Detecting and mitigating algorithmic bias across racialized groups in college student-success prediction. AERA Open, 10(1), 1–15.
„Bahnbrechend“: Finnisches KI-Modell sagt frühzeitig späteren Schulabbruch voraus
Die Algorithmen sind halt ehrlich. Wenn da unerwünschte Ergebnisse herauskommen, zeigt das eher, dass man sich etwas vorgelogen hat, was die Realität nicht hergibt.
Sorry, Quatsch. Die Algorithmen verstärken das, was die Programmierer*innen hineinlegen. Sie nutzen häufig zudem verzerrte und/oder unvollständige Datensätze. Wer dabei von “ehrlich” spricht, muss TikTok oder Telegram für Qualitätsmedien halten. Gerne hier nachlesen: https://www.antidiskriminierungsstelle.de/SharedDocs/forschungsprojekte/DE/Studie_DiskrRisiken_durch_Verw_v_Algorithmen.html?nn=305544
Herzliche Grüße
Die Redaktion
Das ist das Dümmste, was ich seit langem lesen durfte!
Mal ehrlich, haben Sie ernsthaft gar keine Ahnung von Rassismus/ Vorurteilen oder freuen Sie sich gerade einfach zu sehr, Ihr rassistisches Menschenbild vermeindlich bestätigt zu bekommen – von einem System, welches gerade unter diesem Menschenbild leidet??
Mein Beileid für jedes Kind anderer Hautfarbe, das Sie unterrichten sollten, was ich mir ehrlichgesagt immer weniger vorstellen kann…
Da schließe ich mich an. Und möchte ergänzen: Rassistische Weltbilder scheinen die Lesekompetenz einzuschränken. Im Artikel steht das Gegenteil von dem, was „Unfassbar“ behauptet.
Ich wollte gerade schreiben: Was für ein alter Hut! Haben die sonst was Neues herausgefunden?
Und dann lese ich den ersten Kommentar dazu -___-
Können wir uns bitte trotzdem auf das Thema konzentrieren, anstatt mit Spinnern über Rassismus, Geschichte, Biologie und Wissenschaft zu referieren?
Meine Frage wäre eher, inwieweit sind diese Systeme besser oder können sie besser werden als menschliche Entscheidungsträger*innen?
Wenn man sich mal die Mühe macht, selbst eine KI zu trainieren, kann man sich ein besseres Bild von den Vorgängen machen.
Ich nehme an dass die Verzerrungen hauptsächlich durch “affirmative action” entstehen.
Wenn lediglich wertneutrale Kategorien herangezogen werden, wie IQ und Leistung in standardisierten Tests, dann weiß die KI nichts über die Ethnie.
Weil die Zugänge zu Universitäten in den USA aber zu einigen Teilen erschwert (Asiaten, “Weiße”) und in anderen Teilen vereinfacht werden (Latinos, “Schwarze”), wird jede objektive Betrachtung ergeben, dass Asiaten und Weiße eine bessere Chance auf einen Abschluss haben.
Zur Veranschaulichung: um einen Studienplatz zu ergattern benötigen asiatische Studenten dort bei den SATs (Studieneignungstest) im Schnitt 140 Punkte mehr als weiße und 450 mehr als schwarze. Die maximal mögliche Gesamtpunktzahl ist 1600.
Natürlich haben diese Schüler eine höhere Chance auf einen Abschluss. Sie haben immerhin im Schnitt auch 28% besser beim Studieneignungstest abgeschlossen.
Genau das habe ich auch gelesen. Inzwischen beklagen sich asiatische Studenten, dass sie (z.B. auch bei der Stipendienvergabe) benachteiligt werden, weil es eine Vorschrift ist, dass Schwarze und Latinos einen bestimmten Anteil bekommen müssen. Dann legt man die Hürden für die Chinesen halt höher.
Ergänzend wäre es wichtig zu erfahren, wie die einzelnen Ethnien eigentlich in der High School abgeschnitten haben. Da muss es doch nationale Tests geben, so vom Typ Pisa.
Eine vielleicht doofe Frage, aber: Woher kennt die KI die Ethnie der Bewerber? In USA ist es üblich, Bewerbungen kein Bild beizulegen. Und es mag sein, dass Hispanics und Asiaten spezielle Nachnamen haben, doch Weiße und Schwarze unterscheiden sich da oft nicht, da die freigelassenen Sklaven im 19. Jahrhundert gezwungen worden waren, die Nachnamen ihrer ehemaligen Herren anzunehmen.
Der Gedanke, dass eine KI eine Prognose über Studenten abgibt, erscheint mir übrigens furchtbar. Das kann doch immer nur ein Weiter So abbilden, schließt persönliche Entwicklungen, Entdeckungen, an sich arbeiten und Veränderungen aus.
In Deutschland gibt es so etwas ähnliches auch. Es nennt sich Schufa.