Bug bounty um Bias in Algorithmen zu finden.

Venturebeats berichtet über verschiedene große Forschungseinrichtungen die vorschlagen KI-Forschern sogenannte “bug bounties” für Biases in KI-Algorithmen zu bezahlen. “Bug bounties”, also eine Art “Kopfgeld” für Programmfehler, werden häufig von Firmen für Sicherheitslücken ausgerufen. Dieses Prinzip soll nun also dazu dienen Biases, d.h. Vorurteile, bestimmten Gruppen gegenüber zu finden und zu melden, sodass entsprechende Gegenmaßnahmen getroffen werden können. 

Aus unserer Sicht hat dieser Ansatz allerdings ein zentrales Problem: Bei Algorithmen ist oft nicht klar was genau das beabsichtigte Verhalten ist. Demgegenüber ist es bei Softwaresystemen meist offensichtlich was eine Sicherheitslücke ist. KI-Algorithmen hingegen sollen ja gerade Individuen in Gruppen einteilen. So soll zum Beispiel ein Algorithmus ein bestimmtes Tier in die Kategorie Hund oder Katze einordnen. Viele dieser Biases, beispielsweise Fußballfans Nachrichten über Fußball statt über Curling zu zeigen, sind ja explizit gewollt. Deshalb konzentriert sich unser Ansatz, EDAP, auf die ethischen Entscheidungen, die bereits in das Softwaredesign einfließen. Diese Deliberation könnte dann als Pflichtenheft für solche Tests dienen indem es Orientierung bietet.