„Fairness in der Informationstechnik und Künstlichen Intelligenz bedeutet nicht nur, algorithmische Entscheidungen gleich zu verteilen, sondern die zugrundeliegenden Machtverhältnisse, Datenmängel und sozialen Kontexte zu erkennen und zu korrigieren. Ein faires System berücksichtigt historische Benachteiligungen, misst Wirkung statt nur Gleichbehandlung, ermöglicht Transparenz und Rechenschaft und erlaubt Betroffenen Prüfung und Wiedergutmachung. Fairness ist ein technisches, organisatorisches und politisches Ziel: sie erfordert diverse Teams, sorgfältige Datenerhebung, robuste Audit‑ und Monitoringprozesse sowie rechts- und menschenrechtskonforme Governance. Kompromisse zwischen Genauigkeit, Effizienz und Gerechtigkeit sind unvermeidlich, weshalb Fairness als fortlaufender Prozess verstanden werden muss — mit klaren Metriken, partizipativem Design und der Bereitschaft, Modelle und Praktiken im Licht neuer Erkenntnisse zu ändern. Erst wenn Technologie soziale Verantwortung nicht nur behauptet, sondern systematisch einfordert, kann sie zu gerechteren Ergebnissen beitragen.“
