Dossier

algorithmwatch“… Welchen Einfluss haben Algorithmen inzwischen auf Entscheidungen? Wie weit ist schon automatisiert, was wir bisher noch selbst in der Hand zu haben glaubten? Wie weit berechnen Maschinen heute Beurteilungen und Arrangements von Menschen voraus – und welche gesellschaftliche Relevanz hat das? Antwort auf diese Fragen gibt es ab sofort bei der nicht-kommerziellen Initiative AlgorithmWatch.org. »Je weiter Technik entwickelt wird, desto komplexer wird sie. Wir sind der Ansicht, dass Komplexität nicht bedeuten darf, dass Technik nicht mehr nachvollziehbar ist«, heißt es bei dem Projekt, hinter dem unter anderem der Datenexperte Lorenz Matzat steht. Man wolle die Auswirkungen algorithmischer Entscheidungsfindungsprozesse auf menschliches Verhalten aufzeigen und mögliche ethische Konflikte thematisieren…” Beitrag bei neues deutschland vom 4. Mai 2016 externer Link und das ADM-Manifest. Neu zur Algorithmen-Debatte:

  • Jetzt mitmachen: Wir knacken die Schufa New
    “Diskriminiert die Schufa? Das will das Projekt OpenSCHUFA ab heute herausfinden. (…) Ob Kredite, Handyverträge oder Wohnungsbewerbungen – bei wichtigen Verbraucherfragen spielt der Schufa-Score eine zentrale Rolle. Wer zu wenige Punkte hat, geht oft leer aus. Das Scoring-Verfahren des Privatunternehmens Schufa, kurz für „Schutzgemeinschaft für allgemeine Kreditsicherung“, ist allerdings höchst intransparent. Als Geschäftsgeheimnis ist es der Öffentlichkeit nicht zugänglich. Das will das Projekt OpenSCHUFA ändern. Die Organisationen Open Knowledge Foundation Deutschland und AlgorithmWatch wollen damit eine Software entwickeln, die den Algorithmus der Schufa mit Reverse Engineering zumindest teilweise rekonstruiert. Dazu rufen sie zur Datenspende auf: Alle Menschen können schon jetzt unter selbstauskunft.net/schufa bei der Schufa kostenlos ihren Schufa-Score anfordern und die Daten – die die Schufa in der Regel per Post zusendet – anschließend an das Projekt spenden. Auch ohne eine Spende ans Projekt kann natürlich eine Selbstauskunft angefordert werden. Kommen ausreichend Datenspenden zusammen, kann OpenSCHUFA möglicherweise nachweisen, ob der Schufa-Score diskriminiert: Welche Auswirkungen hat das Geschlecht oder der Wohnort einer Person auf den Score? Ist der Algorithmus überhaupt zuverlässig? Verstärkt er Ungerechtigkeiten?…” Update: “Die Schufa hat inzwischen auf die Kampagne reagiert. In ihrer Stellungnahme heißt es unter anderem: „Die SCHUFA bezeichnet das Vorhaben als klar gegen die übergeordneten Interessen von Wirtschaft, Gesellschaft und den Wirtschaftsstandort Deutschland gerichtet.“ Kampagneninfo von Arne Semsrott vom 15. Februar 2018 bei Netzpolitik.org externer Link, siehe alle wichtigen Infos zur Aktion:

    • OpenSCHUFA – Wir knacken die SCHUFA
      “Du bekommst keinen Kredit, keinen Handy-Vertrag, und auch bei der Bewerbung um die schöne Wohnung ziehst Du dauernd den Kürzeren. Woran das liegt? An der SCHUFA natürlich! Wirklich? Benachteiligt die SCHUFA eine Gruppe von Menschen gegenüber einer anderen? Verstärkt sie Ungerechtigkeiten? Das wollen wir herausfinden. Und dazu brauchen wir Dein Geld (wenig) – und Deine Daten (möglichst viele)!…” Aufruf vom 14. Februar 2018 mit Video von Nico Semsrott externer Link in dem alles zur Aktion erklärt wird
  • Wie der Mensch die Kontrolle über den Algorithmus behalten kann 
    “Software trifft immer häufiger Entscheidungen mit drastischen Auswirkungen auf unser Leben, ob bei der Kreditvergabe oder in der Medizin. Das Recht sollte dabei eine Möglichkeit zur Prüfung und Kontrolle bieten. Aktuelle Gesetzgebung bietet dafür erste Ansätze. Ein Überblick. Seitdem Justizminister Heiko Maas (SPD) die Regulierung von Algorithmen auf die politische Agenda gesetzt hat, ist das Thema fast so prominent wie das Netzwerkdurchsetzungsgesetz (NetzDG). (…) Die Überantwortung menschlicher Entscheidungen an Maschinen steigert die gesellschaftliche Komplexität. Sie birgt ganz neue Herausforderungen gesellschaftlicher Herrschaftskontrolle. Darin nehmen nicht nur Algorithmen, sondern auch Daten eine zentrale Stellung ein. Maschinelles Lernen und andere Formen künstlicher Intelligenz stellen ein ungeheuer spannendes und risikoreiches Experiment mit der Gesellschaft dar. Es sollte nicht der kurzfristigen Innovationseuphorie zum Opfer fallen. Es gilt genau jetzt, die Weichen zu stellen, wozu die Maschinen dem Menschen dienen sollen. Naheliegende Regulierungsoptionen liegen in der Ermöglichung von Prüfung und Kontrolle. Hier nehmen die ordentliche Implementierung der Datenschutz-Grundverordnung, die Verabschiedung der E-Privacy-Verordnung und die Prüfung und Reform von IT-Sicherheitsgesetzen und Urheberrecht eine essentielle Stellung ein.” Beitrag von Julia Krüger vom 19. Januar 2018 bei Netzpolitik externer Link
  • Raus aus dem Dunkeln: Warum an der Debatte über Algorithmen alle BürgerInnen teilhaben sollten
    Algorithmische Entscheidungsfindung (algorithmic decision making, kurz ADM) ist aus unserem digitalen Leben nicht mehr wegzudenken. Diese Entwicklung bringt Fragen mit sich: Darf eine PKW-Software darüber entscheiden, wer im Falle eines Unfalls zu Schaden kommt? Wer bestimmt über meine Kreditwürdigkeit? Wen ziehe ich zur Verantwortung, wenn mich die Versicherung ablehnt? Das Problem: Als BürgerInnen sind wir derzeit nicht in der Lage, überhaupt mitdiskutieren zu können, da wir über solche komplexen Themen nicht genug wissen. Berliner Gazette-Autorin Kim Ly Lam sucht nach Lösungsansätzen…Beitrag von Kim Ly Lam vom 01.03.2017 bei der Berliner Gazette externer Link
  • ADM-Manifest der Initiative AlgorithmWatch.org vom 4. Mai 2016 externer Link (dt. und eng): “… 1. ADM ist niemals neutral. 2. Die Schöpfer von ADM-Prozessen sind verantwortlich für ihre Resultate. ADM-Prozesse werden nicht nur von ihren Entwicklern erschaffen. 3. ADM-Prozesse müssen nachvollziehbar sein, damit sie demokratischer Kontrolle unterworfen werden können. 4. Demokratische Gesellschaften haben die Pflicht, diese Nachvollziehbarkeit herzustellen: durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen. 5. Wir müssen entscheiden, wie viel unserer Freiheit wir an ADM übertragen wollen…”