Am 24. und 25. Februar fand am Algorithm Accountability Lab der Technischen Universität Kaiserslautern das gemeinsame Kickoff-Meeting der Projektpartner:innen mit dem DLR und ein Face-to-Face Workshop statt.
Am ersten Tag stellten die Partneruniversitäten nach einer kurzen Vorstellungsrunde ihre Arbeitsschwerpunkte vor, beleuchteten das Projekt von ihrem Forschungsansatz und informierten über den aktuellen Stand ihrer Arbeit. Der DLR informierte dabei über das Zuwendungsrecht. Zunächst erläuterte Frau Prof. Dr. Katharina Zweig, Leiterin des Algorithm Accountability Labs (AAL), ihre aktuellen Forschungsansätze. Dabei ging sie insbesondere auf die Diskussion um einen neuen „Fairness-Maßstab“ und die Entwicklung einer neuen Risikomatrix ein. Anschließend berichtete Dr. Carsten Orwat über aktuell veröffentlichte Papiere der EU-Kommission und deren Bedeutung für das GOAL-Projekt. Es sei insbesondere herauszuarbeiten, welche passenden Governance-Instrumente und -Ansätze es für Regulierungsmöglichkeiten gäbe. Dabei ging er noch einmal auf die Bedeutung der interdisziplinären Ausrichtung des Projekts ein. Frau Prof. Dr. Judith Simon von der Universität Hamburg wurde via Video-Konferenz zu dem Treffen hinzugeschaltet und berichtete über den aktuellen Stand ihres Teams. Die Literaturrecherche und -systematisierung sei abgeschlossen, sodass man nun mit der inhaltlichen Arbeit beginne. Für das ITM stellte Herr Matthias Haag die Zwischenergebnisse vor. Dabei ging er vor allem auf den bisherigen Forschungsstand, die aktuelle Öffentlichkeitsarbeit, sowie erfolgte und anstehende Publikationen des ITM ein. Herr Nicholas Schmidt von der Ruhr-Universität Bochum stellte den Fortschritt der Fallstudie in Form der Newsfeed-App vor. Dabei ging er insbesondere auf das geplante Design des Experiments sowie auf die verschiedenen eingesetzten Elemente zur Verhaltenssteuerung ein.
Abschließend informierten Herr Mader und Herr Nordengrün von dem DLR über die allgemeinen Strukturen des Projekts. Dabei gingen sie insbesondere auf das Finanzierungswesen und Berichtwesen ein und gaben hilfreiche Hinweise an alle Projektpartner:innen.
Am zweiten Tag fand unter der Leitung von Frau Prof. Dr. Zweig ein anregender Face-to-Face Workshop mit innovativen Themen statt. Dabei wurde in mehreren Themengebieten die informationstechnischen Grundlagen dargestellt und notwendigen statistischen Grundlagen vermittelt. Im Anschluss an eine Begrenzung des Anwendungsbereichs von ADM-Systemen stellte Frau Prof. Dr. Zweig die strukturellen Unterschiede verschiedener informationstechnischer Modelle für Entscheidungssysteme dar. In diesem Zusammenhang erfolgte auch eine Einführung in die Lernmethode von künstlichen neuronalen Netzen. Hierbei wurde auch auf die verschiedenen Qualitätsmaße eingegangen, auf die ein ADM-System optimiert werden kann.
In einer weiteren Einheit stellte Frau Prof. Dr. Zweig das von ihr entwickelte Kritikalitätsmodell und dessen Grundlagen dar. Hierbei wurde auch eine Möglichkeit aufgezeigt, die im Rahmen des Einsatzes von ADM-Systemen bestehenden Verantwortlichkeiten zuzuweisen. Sie erläuterte, inwieweit gesellschaftliche Grundentscheidungen im Rahmen von KI-Systemen notwendig sind und an welchen Stellen ihrer Entwicklung und ihres Einsatzes diese implementiert werden können. Dabei wurde die Signifikanz einer sozioinformatorischen Gesamtbetrachtung deutlich. Gleichzeitig wurde das Kritikalitätsmodell im Rahmen einer ökonomischen Analyse eingeordnet. Zudem stellte Frau Prof. Dr. Zweig anhand eines Entscheidungsbaumes anschaulich die Kategorisierung der ersten beiden Stufen des Kritikalitätsmodelles dar. Sie führte insbesondere die Notwendigkeit von Transparenz- und Nachvollziehbarkeitsmechanismen dar. Hierauf aufbauend wurde weiteres Arbeitsmaterial für eine vertieftere Auseinandersetzung.
Die GOAL-Teilnehmer:nnen möchten sich hiermit sehr herzlich bei Frau Prof. Dr. Zweig und ihrem Team (Herr Marc Hauer und Herr Tobias Krafft) für deren Gastfreundschaft und den sehr kompetenten und informativen Workshop bedanken, sowie bei Herrn Marder und Herrn Nordengrün vom DLR für deren zahlreiche Hinweise.