KI KONKRET
UND
VERANTWORTUNGSVOLL ENTWIRREN

KI-Systeme können ethische Auswirkungen auf Menschen haben.

Menschen, nicht Maschinen, tragen die Verantwortung für ihre Entwicklung und ihren Einsatz.

HUMAN ist eine praxisorientierte Methode, um KI verantwortungsvoll zu entwirren.


HUMAN kombiniert Bottom-up-Analyse mit Top-down-Vorgaben.

Setze eine verantwortungsvolle KI-Strategie auf, die in der Praxis verankert ist.


Diese Toolbox mit den 3 Modulen hilft Dir, KI-Systeme verantwortungsvoll zu entwirren:

1. Stakeholder einbeziehen

Führe ein Panel Assessment durch, um die Bedürfnisse der Menschen zu verstehen, die von dem KI-System oder seinen Ergebnissen betroffen sind oder diese beeinflussen.

Kurz-Version in zwei Schritten:

1/4

Stakeholder Identifikation:

 

Wer ist direkt oder indirekt vom KI-System betroffen?

2/4

Einbindung:

 

Wie plant Du, unterschiedliche Interessensgruppen bei der Entwicklung, dem Einsatz und der Bewertung des Systems einzubeziehen?

3/4

Willst Du wissen, wie?

 

Hier findest du den LINK zur Panel Assessment Methode.

4/4

2. Analysiere ethische Auswirkungen

Führe eine Folgenabschätzung durch und mach deren Ergebnis transparent, um Risiken zu erkennen und zu minimieren.

Kurz-Version in drei Schritten:

1/5

Zielsetzungen:

 

Welches Problem willst Du lösen und welche Ziele erreichen?

Wie soll der Einsatz des Systems dabei helfen?

2/5

Ethische Auswirkungen:

 

Welche ethischen Auswirkungen könnte das KI-System im Kontext, in dem es eingesetzt wird, auf die Beteiligten haben?

3/5

Bewertung:

 

Wie bewertest Du, ob Ihr die gesetzten Ziele erreicht und mit den ethischen Auswirkungen verantwortungsvoll umgeht? Wer ist für diese Bewertung verantwortlich?

4/5

Willst Du wissen, wie?

 

Hier findest du den LINK zur Impact Assessment Methode.

5/5

Open Source und frei zugänglich.

Entdecke den verantwortungsvollen Einsatz von KI und werde Teil unseres Netzwerks!

Zur Unterstützung inkl. Aussenperspektive nutze unser drittes Modul: 

3. Begleitung durch Expert:innen

  • Wir helfen bei der Entwicklung einer verantwortungsvollen KI-Strategie.
  • Wir helfen, diese Strategie in der Organisationkultur zu verankern.
1/2

Meldet Euch bei:

 

Intersections

und AlgorithmWatch CH

2/2

Statement einer Umsetzungspartnerin

HUMAN unterstützt die ethische Reflexion und weist effizient auf Schwachstellen hin

HUMAN Umsetzungspartner:innen

Folgenden Anwendungen wurden mit Hilfe von HUMAN getestet: 

Wer und was steckt hinter HUMAN?

HUMAN ist eine greifbare Methode für eine verantwortungsvolle Nutzung von Algorithmen und KI-Systemen. Sie kombiniert ein Panel Assessment, an dem verschiedene Interessengruppen beteiligt sind, mit einer Folgenabschätzung, die von KI-Anwendenden verlangt, über Ziele, Massnahmen und Ergebnisse im Hinblick auf ethische Anforderungen nachzudenken.

Intersections befähigt Menschen mit Wissen und Tools, um die KI-Transformation sicher, verantwortungswürdig und effektiv zu gestalten. https://intersections.ch/ 

AlgorithmWatch CH ist eine gemeinnützige Nichtregierungsorganisation in Zürich und Berlin. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen. https://algorithmwatch.ch 

HUMAN Team 

Diese Menschen haben die HUMAN-Methode entwickelt: Nikki Böhler und Nathalie Klauser von Intersections in Zusammenarbeit mit Angela Müller and Michele Loi von AlgorithmWatch CH. 

Ein spezielles Dankeschön geht an unser Advisory Board: Bienefeld, Nadine: Privatdozentin ETH/ Kirchschläger, Peter: Professor Universität Luzern / Nauer, Céline: Code Excursion/ Paeffgen, Niniane: GESDA / Pierri, Paola: Professorin HKB/ Rochel, Johan: PostDoc EPFL/ Schouten, Afke: HWZ/ Strub, Jean-Daniel: Ethix

HUMAN wurde unterstützt von der Stiftung Mercator Schweiz.