Mit einem neuen Ansatz sollen Abweichungen bei der KI-Bildverarbeitung reduziert werden, ohne dass es zum sogenannten Whac-A-Mole-Dilemma kommt.
Der WRING-Ansatz (Weighted Rotational DebiasING) ist eine neuartige, vom MIT vorgestellte Methode zur Reduzierung von Bias in multimodalen Vision-Language-Modellen (VLMs) wie beispielsweise OpenCLIP. Es handelt sich um einen Post-Processing-Ansatz, der direkt auf bereits vortrainierte Modelle angewendet werden kann, ohne dass ein teures und ressourcenintensives Retraining von Grund auf erforderlich ist.
Technisch funktioniert WRING so, dass es bestimmte Koordinaten innerhalb des hochdimensionalen Raums eines Modells, die für den jeweiligen Bias verantwortlich sind, in einen anderen Winkel verschiebt, sie also rotiert. Durch diese gezielte Verschiebung verliert das Modell die Fähigkeit, zwischen verschiedenen Gruppen innerhalb eines bestimmten Konzepts zu unterscheiden, wodurch der Bias effektiv neutralisiert wird. Der größte Vorteil von WRING besteht darin, dass diese Modifikation nur punktuell wirkt, sodass alle anderen gelernten Verknüpfungen und Beziehungen des Modells intakt bleiben.

Abbildung 1: Top-Ten-Bilder für „teure" Artikel in FashionProductImages und „treue" Hunde in Spawrious vor und nach dem Debiasing per WRING-Entzerrung. Das Beispiel nach der Entzerrung zeigt weniger Farb-Bias bei den Modebildern und eine geringere Verzerrung zugunsten von Corgis bei den Hundebildern. Die Modebilder wurden zu Demonstrationszwecken auf Schwarz-Weiß-Aufnahmen beschränkt. Quelle: MIT
Damit adressiert WRING gezielt das sogenannte Whac-A-Mole-Dilemma, ein weitreichendes Problem bei der Fehlerbehebung von KI-Modellen. Das Whac-A-Mole-Dilemma beschreibt das Phänomen, dass die erfolgreiche Reduzierung eines bestimmten Bias oder Shortcuts unbeabsichtigt dazu führt, dass das Modell sich auf andere, noch vorhandene Verzerrungen stürzt oder diese sogar verstärkt. Ein anschauliches Beispiel aus der Medizin: Entfernt man aus einem KI-Modell, das Bilder von klinischem Personal auswertet, einen rassistischen Bias, kann das den unvorhergesehenen Effekt haben, dass stattdessen ein geschlechtsspezifischer Bias deutlich verstärkt wird.
Traditionelle Methoden wie das Projection Debiasing sind sehr anfällig für dieses Dilemma. Bei diesem Ansatz wird der Bereich mit der unerwünschten Information aus dem Repräsentationsraum des Modells entfernt. Das Problem dabei ist, dass durch dieses Vorgehen unbeabsichtigt auch andere gelernte Beziehungen im Modell verschoben oder gequetscht werden. WRING verhindert diesen Effekt: Durch die bloße Rotation der Parameter lässt sich zeigen, dass ein Ziel-Bias signifikant reduziert werden kann, ohne dabei Verzerrungen in anderen Bereichen zu vergrößern.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Fujitsu und Palantir intensivieren Zusammenarbeit für generative KI
Kawasaki, Japan – Fujitsu hat eine neue Lizenzvereinbarung mit Palantir Technologies Japan bekannt gegeben. Die am 5. August 2025 unterzeichnete
Nvidia Spectrum-XGS: neue Technologie für die Kommunikation von KI-Rechenzentren
Nvidia hat eine neue Scale-Across-Technologie vorgestellt: Spectrum-XGS Ethernet. Ziel dieser Entwicklung ist es, mehrere Rechenzentren miteinander zu verbinden, um
Die Zwei-Klassen-Gesellschaft der KI: Warum Hyperscaler ihre Server ersetzen müssen und warum das Ihre beste Investitionschance ist
In den Vorstandsetagen und IT-Abteilungen weltweit herrscht ein Paradoxon. Während die
Zum Inhalt springen



