Projekte
Im Folgenden finden Sie eine Übersicht von Projekten, an denen die Forscherinnen und Forscher des Algorithm Accountability Lab teilgenommen haben. Nähere Informationen werden auf den entsprechenden Webseiten der Projekte zur Verfügung gestellt.
Laufende Projekte
Weiß die KI, dass sie nichts weiß?
Wozu können Sprachmodelle verwendet werden?
Fragen Sie sich immer wieder, wozu Sprachmodelle wie ChatGPT genutzt werden können? Wo sie helfen können, sei es bei der Arbeit bei einem Schreiben an eine Behörde oder Zuhause bei einem Kochrezept? Und wo sollten Sie es lieber lassen, weil Fehler nicht geduldet werden können? Auf der Webseite zum Buch “Weiß die KI, dass sie nichts weiß?” wird das grundlegende Wissen vermittelt, um diese Fragen beantworten zu können.
Dort findet sich auch der Zugang zur Open Access Variante von “Weiß die KI, dass sie nichts weiß?”
TrADeMaS
Transparenz von Algorithmic Decision Making Systems
Das Projekt TrADeMaS hat zum Ziel, die Transparenz- und Erklärbarkeitsansätze im Bereich der algorithmischen Entscheidungsfindung zu evaluieren. Dabei wird untersucht, ob diese Ansätze tatsächlich echte Transparenz bieten oder nur eine Illusion erzeugen. Die Bewertung erfolgt aus zwei Perspektiven: Zum einen wird die mathematische Robustheit der Ansätze überprüft, um festzustellen, ob sie Fehler im System erkennen können. Zum anderen wird die psychologische Effektivität der Ansätze analysiert, um zu ermitteln, wie gut sie die Entscheidungen des Systems für die betroffenen Personen verständlich machen. (zur Projektwebseite)
Abgeschlossene Projekte
Industrieprojekt: Begleitung bei der Einführung eines großen KI-Projekts im Bereich Human Ressources
In diesem Projekt begleiteten Mitglieder des Algorithm Accountability Lab die Vorbereitung und den Einsatz eines KI-Projektes bei einem großen Industrieunternehmen, durch dessen Einsatz HR-Prozesse vereinfacht und beschleunigt werden sollten.
ExamAI – KI Testing & Auditing
"Im Konsortialprojekt „ExamAI – KI Testing & Auditing“ unter Leitung der Gesellschaft für Informatik e.V. untersucht ein interdisziplinäres Team aus (Sozio-)Informatiker*innen, Software-Ingenieuren sowie Rechts- und Politikwissenschaftler*innen anhand von zwei konkreten Anwendungsbereichen - (1) Mensch-Maschine-Kooperation in der Industrieproduktion sowie (2) KI-Systeme im Personal- und Talentmanagement - wie sinnvolle Kontroll- und Testverfahren für KI-Systeme aussehen können." (zur Projektseite)
GOAL
Governance von und durch Algorithmen
"GOAL (Governance von und durch Algorithmen) ist ein vom BMBF gefördertes interdisziplinäres Projekt im Bereich Algorithmen und KI". "Gegenstand des Projekts ist die Governance von und durch Algorithmen. Zum einen wird untersucht, wie die Governance von risikobehafteten Algorithmen gestaltet werden kann. Zum anderen wird erforscht, wie Algorithmen selbst Governancefunktionen ausüben und dadurch Bestandteil der Governance zur Risikominderung von Algorithmen werden können. Der Fokus ist daher auf Algorithmen, deren verhaltenssteuernde und regulative Wirkungen, ihre gesellschaftlichen Konsequenzen und Nebenwirkungen sowie auf diesbezügliche Handlungsbedarfe und -optionen zur Gestaltung von umfassenden Governancestrukturen gerichtet." (zur Projektseite)
Deciding about, by, and together with algorithmic decision making systems
Katharina Zweig war die Sprecherin des Projektes "Deciding about, by, and together with algorithmic decision making systems". Das Projekt "Entscheiden über, durch und zusammen mit algorithmischen Entscheidungssystemen" untersucht die Auswirkungen von algorithmischen Entscheidungssystemen (ADM) im Strafjustizsystem aus verschiedenen disziplinären Perspektiven. In diesem Projekt geht es darum, wie Menschen über die Entwicklung und Umsetzung solcher Systeme entscheiden, wie sie ADM-Systeme in Entscheidungsprozesse einbeziehen und wie Entscheidungen gemeinsam mit diesen Systemen getroffen werden. Das Ziel des Projektes ist es, die Kontextabhängigkeit von Entscheidungen hervorzuheben, die bei der Entwicklung von ADM-Systemen bisher oft vernachlässigt wurde. (zur Projektseite)
Fatal4Justice?
Dieses Projekt beschäftigt sich mit der Frage, ob algorithmic decision making systems (ADM-Systeme) in der Lage sind, Entscheidungen in Strafjustizsystemen zu übernehmen. (zur Projektseite)
Algorithms for Big Data
Das Ziel des Projekts ist es, durch die Kombination von Expertenwissen aus verschiedenen Bereichen neue Berechnungsmodelle zu entwickeln und algorithmische Herausforderungen im Umgang mit Big Data zu identifizieren. Dabei soll eine Toolbox aus verbesserten Algorithmen und Datenstrukturen für große Datensätze entstehen, die den gesamten Entwicklungszyklus der Algorithmentechnik abdeckt. (zur Projektseite)
Entscheiden über, durch und zusammen mit algorithmischen Entscheidungssystemen
Künstliche Intelligenz (“AI”) beschrieb Alan Turing als “the science and engineering of making intelligent machines, especially intelligent computer programs.”. Heute treffen wir KI in verschiedenen Stadien an, wobei die heute erfolgreichsten verschiedene Techniken des "maschinellen Lernens" implementieren. Die Algorithmen des maschinellen Lernens werden verwendet, um Entscheidungsregeln aus Daten zu abstrahieren, die dann beispielsweise in Entscheidungsbäumen oder neuronalen Netzwerken gespeichert werden (algorithmic decision making; “ADM”). Mit der Zeit verbessert sich das System, indem es aus den Konsequenzen seiner vorherigen Entscheidungen lernt.
Die große Frage des Projekts ist, ob es Grenzen dieser Art von ADM gibt. ADM Systeme werden immer beliebter, insbesondere in den notorisch unterbesetzten Strafjustizssystemen der Welt (im Weiteren: "SJS"). In westlichen SJS, insbesondere denen der USA und in GB, werden diese Werkzeuge in verschiedenen Phasen des Strafrechtsprozesses genutzt, um insbesondere das Rückfälligkeitsrisiko von Angeklagten zu bewerten. In den USA haben sich sogar die großen Menschenrechtsorganisationen wie die ACLU dafür eingesetzt, dass diese Werkzeuge in allen Phasen des Strafrechtsprozesses eingesetzt werden, um mögliche menschliche Vorurteile zu vermeiden.
Diese steigende Popularität von ADM Systemen in SJS zusammen mit den offensichtlich gravierenden Konsequenzen, falls sich die Maschine irrt, macht das Strafjustizsystem zu einem idealen Forschungsthema zur Frage wie Menschen über Menschen entscheiden und wie Maschinen über Menschen entscheiden verglichen damit wie Menschen zusammen mit Maschinen über Menschen entscheiden–aber auch die Grenzen auszuloten, wo Maschinen überhaupt Entscheidungen über Menschen treffen sollten. Damit ist auch die Frage eng verbunden, wie Staaten darüber entscheiden, ob ADM Systeme in ihren Strafjustizsystemen überhaupt verwendet werden sollen.
Berichterstattung
Volkswagenstiftung: Künstliche Intelligenz und ihr Einfluss auf die Gesellschaft von morgen
Datenspende Projekt
Wenn Sie mit Google suchen, sehen Sie dann die gleichen Ergebnisse wie Ihre Arbeitskollegen, ihre Freunde oder ihre Familie? Falls nicht, warum ist das so? Personalisiert Google die Suchergebnisse? Wenn ja, nach welchen Kriterien? Welche Themen haben in den Ergebnissen der Google-Suche und bei Google News Konjunktur, wenn es um die Bundestagswahl 2017 geht?
Es wird viel spekuliert über den Einfluss, den Suchmaschinen auf die Informationen haben, die wir zur Kenntnis nehmen. Tatsächlich wissen wir sehr wenig darüber, wie sie Informationen gewichten und anzeigen. Aber Suchmaschinen sind so zentral für unser Zusammenleben, dass wir eine Möglichkeit brauchen, sie unabhängig zu überprüfen. Das wollen wir mit einem Crowdsourcing-Projekt erreichen, der Datenspende BTW17.
Berichterstattung
Network Analysis Literacy
Bei der Network analysis literacy geht es um die Frage, wann welche Methode zur Analyse von Netzwerken eingesetzt werden soll. In diesem Bereich wurden bereits viele Methoden vorgeschlagen, aber nur wenige davon wurden anhand einer Grundwahrheit bewertet. Wir schlagen vor, dass sich die network analysis-Gemeinschaft auf Benchmark-Datensätze und Ground-Truth- oder Gold-Standard-Lösungen einigen sollte, um zu zeigen, dass die vorgeschlagenen Algorithmen auf ihre Qualität hin getestet werden können
Local Identification of Central Nodes, Clusters, and Network Motifs in Very Large Complex Networks
DFG SPP 1736
Die Analyse komplexer Netze beruht im Wesentlichen auf drei verschiedenen Ansätzen: der Identifizierung zentraler Knoten, der Zuordnung von Knoten zu einer oder mehreren Gruppen topologisch ähnlicher anderer Knoten, so genannten Clustern, und der Identifizierung von Teilgraphen, die häufiger vorkommen als zufällig erwartet. Hinter all diesen Ansätzen stehen mindestens ein Dutzend Funktionen und Maßnahmen zu ihrer Instanziierung, die alle der gleichen Logik folgen, die allerdings nicht immer klar definiert ist. Alle diese Ansätze basieren heute auf Methoden, die globale Eigenschaften des Graphen nutzen, wie z. B. den Abstand zwischen allen Knotenpaaren (O(nm+n2 log n)), ein globales Ranking ähnlicher Knoten- oder Kantenpaare (O(n2)) oder den Vergleich mit zufälligen Graphenmodellen, die dieselbe Struktur aufweisen wie der beobachtete Graph (O(m log m)). Keiner dieser grundlegenden Ansätze lässt sich also direkt auf die Analyse sehr großer komplexer Netze übertragen, wie sie heute benötigt werden.
In diesem Projekt werden wir ein Modell lokaler Versionen dieser drei Ansätze entwickeln, das grundlegend beschreibt, wie ein entsprechendes Maß in eine lokale Variante von sich selbst umgewandelt werden kann. Die grundlegende Methode besteht darin, Algorithmen zu entwickeln, die auf graphentheoretischen Überlegungen beruhen, wobei die Algorithmustechnik durch maschinelles Lernen informiert wird, um reale Eigenschaften der Daten und reales Verhalten der Hardware zu berücksichtigen. Die neu entwickelten Maße und Modelle werden in die Praxis umgesetzt und ihre Nützlichkeit wird anhand von Big Data von RIOT Games, einer in den USA ansässigen Computerfirma, bewertet.
One plus one makes three for social networks
In dieser Zusammenarbeit mit Michael Hanselmann und Fred Hamprecht haben wir untersucht, wie viel eine typische soziale Netzwerkplattform (wie Facebook) über Beziehungen zwischen Nicht-Mitgliedern ableiten kann. Basierend auf der Information, wer wen auf der Plattform kennt und einer Liste von Kontakten zu Nicht-Mitgliedern schätzen wir, dass eine Plattform wie Facebook etwa 40% der Verbindungen zwischen Nicht-Mitgliedern ableiten kann.