KI, Ethik und Verantwortung
Einführung
Abschnitt betitelt „Einführung“🎯 Lernziele
- Verstehen, warum KI ethische Fragen aufwirft
- Risiken von KI kennen: Privatsphäre, Überwachungsgesellschaft, Auswirkungen auf den Arbeitsmarkt
- Wissen, wie Macht und Kontrolle über KI-Systeme die Gesellschaft beeinflussen
- Kritische Fragen zur KI-Nutzung stellen können
KI ist nicht nur Technologie – sie ist eine gesellschaftliche Frage. Die Technologie beeinflusst, wer einen Job bekommt, wer einen Kredit erhält, wer überwacht wird, welche Informationen Du siehst und wer ins Gefängnis kommt. Wenn KI Entscheidungen über das Leben von Menschen trifft oder beeinflusst, müssen wir Fragen über Gerechtigkeit, Verantwortung und Macht stellen.
KI-Systeme sammeln und analysieren riesige Mengen an Daten über Dich – oft ohne dass Du Dir dessen vollständig bewusst bist oder zugestimmt hast, wie sie verwendet werden.
Problem 1: Privatsphäre und Überwachung
KI erstellt Profile von Dir basierend auf Deinen Suchanfragen, was Du anschaust, wo Du Dich befindest, mit wem Du sprichst, was Du kaufst, Deiner Stimme und Deinem Gesicht.
Warum ist das ein Problem?
Abschnitt betitelt „Warum ist das ein Problem?“Du weißt nicht, was sie über Dich wissen
Abschnitt betitelt „Du weißt nicht, was sie über Dich wissen“Unternehmen wissen möglicherweise mehr über Deine Präferenzen, politischen Ansichten, Gesundheitszustand und Finanzen als Deine engsten Freunde.
Daten können auf Weisen verwendet werden, denen Du nicht zugestimmt hast
Abschnitt betitelt „Daten können auf Weisen verwendet werden, denen Du nicht zugestimmt hast“Du hast Facebook vielleicht erlaubt, Deine Bilder zu nutzen, um „die Nutzererfahrung zu verbessern” – aber wusstest Du, dass das die Schulung von Gesichtserkennungssystemen bedeuten könnte, die an Regierungen verkauft werden?
Die Überwachungsgesellschaft
Abschnitt betitelt „Die Überwachungsgesellschaft“Einige Länder nutzen KI zur Massenüberwachung. In China wird Gesichtserkennung an öffentlichen Plätzen eingesetzt, und ein „Sozialkreditsystem” bewertet das Verhalten von Bürgern – niedrige Punktzahlen können zu Einschränkungen wie dem Verbot führen, Flugtickets zu kaufen. Anderswo wird KI eingesetzt, um soziale Medien zu analysieren und Demonstranten zu identifizieren.
Datenlecks und Missbrauch
Abschnitt betitelt „Datenlecks und Missbrauch“Wenn ein Unternehmen viele Daten über Dich hat und die Daten durchsickern, können Hacker, Kriminelle oder feindliche Staaten Zugang zu sensiblen Informationen erhalten.
Was kannst Du tun?
Abschnitt betitelt „Was kannst Du tun?“- Sei Dir bewusst, welchen Apps und Diensten Du erlaubst, Daten zu sammeln
- Nutze Privatsphäre-Einstellungen in sozialen Medien
- Unterstütze Gesetzgebung, die die Privatsphäre schützt (wie die DSGVO der EU)
KI kann gesellschaftliche Ungerechtigkeiten in einem Ausmaß automatisieren und verstärken, das für menschliche Entscheidungsträger unmöglich wäre.
Problem 2: Bias und Diskriminierung
Beispiele aus der Realität
Abschnitt betitelt „Beispiele aus der Realität“- Amazon-Rekrutierung: KI, trainiert auf 10 Jahren Einstellungen (hauptsächlich Männer in Technik-Rollen), bestrafte Frauen-CVs – z.B. gab „Damen-Schachclub” Minuspunkte. Das System wurde abgeschafft.
- Strafvollzug (USA): KI zur Vorhersage des Rückfallrisikos überschätzte das Risiko für schwarze Rückfalltäter im Vergleich zu weißen – mit ungerechten Strafen und Bewährungsentscheidungen als Folge.
- Gesichtserkennung: Systeme sind deutlich schlechter darin, Gesichter von Menschen mit dunkler Haut und Frauen zu erkennen – mit dem Risiko falscher Verhaftungen.
- Kreditanträge: KI kann gegen Geringqualifizierte, Minderheiten oder Personen aus bestimmten Gebieten diskriminieren, was die Möglichkeit beeinflusst, eine Wohnung zu kaufen oder ein Unternehmen zu gründen.
Warum passiert das?
Abschnitt betitelt „Warum passiert das?“- Historische Daten spiegeln historische Ungerechtigkeiten wider: Wenn Daten zeigen, dass Frauen historisch niedrigere Löhne hatten, lernt KI, dass Frauen „weniger wert sind”
- Proxy-Variablen: KI kann nicht direkt basierend auf Rasse diskriminieren (illegal), lernt aber Korrelationen – Postleitzahl kann ein Proxy für Ethnizität sein
- Selbstverstärkender Bias: Ein fehlerhaftes System erzeugt neue verzerrte Daten, die das Problem verstärken
Was ist die Lösung?
Abschnitt betitelt „Was ist die Lösung?“- Trainingsdaten prüfen und KI auf verschiedenen Gruppen testen
- Transparenz von Unternehmen und Behörden verlangen
- Menschliche Aufsicht sicherstellen – KI sollte keine alleinigen Entscheidungen in sensiblen Fragen treffen
Wenn ein Mensch eine falsche Entscheidung trifft, können wir ihn zur Rechenschaft ziehen. Aber wenn eine KI Fehler macht – wer ist dann verantwortlich?
Problem 3: Die Verantwortungsfrage – Wer trägt die Schuld, wenn KI Fehler macht?
Selbstfahrendes Auto
Abschnitt betitelt „Selbstfahrendes Auto“Ein selbstfahrendes Auto tötet einen Fußgänger. Wer ist verantwortlich?
- Der Hersteller des Autos?
- Das Unternehmen, das die KI gebaut hat?
- Der Programmierer, der den Code geschrieben hat?
- Die Person, die im Auto saß (aber nicht fuhr)?
Medizinische KI
Abschnitt betitelt „Medizinische KI“Eine KI empfiehlt die falsche Behandlung und der Patient stirbt. Wer haftet – das KI-Unternehmen, das Krankenhaus, das die KI nutzte, oder der Arzt, der der Beurteilung vertraute?
Das Problem
Abschnitt betitelt „Das Problem“KI-Systeme sind so komplex, dass es schwer ist, EINE Ursache für einen Fehler zu benennen. Es gibt niemanden, der bewusst eine schlechte Entscheidung getroffen hat – das System hat das Verhalten aus Daten „gelernt”.
Gesetzgebung zu Verantwortung für KI-Systeme läuft, aber die Frage ist noch nicht gelöst.
KI und Automatisierung verändern den Arbeitsmarkt fundamental – und die Frage ist nicht, ob es passiert, sondern wie wir den Wandel gestalten.
Problem 4: Auswirkungen auf den Arbeitsmarkt
Jobs, die betroffen sind
Abschnitt betitelt „Jobs, die betroffen sind“- Routineaufgaben werden automatisiert: Fabrikarbeit, Lagerverwaltung, Dateneingabe
- Einige Bürojobs: Einfacher Kundenservice, Buchungen, Kassenarbeit
- Auch ‘Wissensarbeit’ ist betroffen: Einfache rechtliche Dokumente, Buchhaltung, Datenanalyse
Schätzungen variieren, aber viele Prognosen sagen, dass 10–30 % der heutigen Jobs innerhalb von 10–20 Jahren erheblich von KI betroffen sein werden.
Aber auch neue Jobs entstehen
Abschnitt betitelt „Aber auch neue Jobs entstehen“- KI-Training und Datenverwaltung
- KI-Ethik und Aufsicht
- Menschen, die mit KI zusammenarbeiten
- Kreative Berufe (KI kann (noch) keine echte Kreativität und emotionale Intelligenz ersetzen)
Wer gewinnt und wer verliert?
Abschnitt betitelt „Wer gewinnt und wer verliert?“- Hochqualifizierte, die mit KI arbeiten können, werden wahrscheinlich produktiver und besser bezahlt
- Geringqualifizierte mit Routinejobs riskieren Arbeitslosigkeit
Das riskiert, gesellschaftliche Ungleichheiten zu vergrößern.
Was kann die Gesellschaft tun?
Abschnitt betitelt „Was kann die Gesellschaft tun?“- Umschulung und lebenslanges Lernen
- Soziale Sicherheitsnetze für diejenigen, die Jobs verlieren
- Diskussion über Grundeinkommen – wenn KI die Produktivität enorm steigert, wie wird der Wohlstand verteilt?
KI wird von einigen wenigen Akteuren entwickelt, was eine Machtkonzentration mit weitreichenden Folgen für Wirtschaft, Politik und globale Sicherheit schafft.
Problem 5: Macht und Kontrolle – Wem gehört KI?
Wer kontrolliert die KI-Entwicklung?
Abschnitt betitelt „Wer kontrolliert die KI-Entwicklung?“Unternehmen: Google, Microsoft, Meta, Amazon, Apple (USA) – Baidu, Alibaba, Tencent (China)
Das gibt ihnen enorme Macht:
- Sie bestimmen, welche KI-Systeme gebaut werden
- Sie besitzen Daten, die KI trainieren
- Sie setzen Standards für die KI-Nutzung
Die Risiken
Abschnitt betitelt „Die Risiken“- Monopol auf Wissen und Technologie
- KI wird für Unternehmensgewinne entwickelt, nicht für das Wohl der Gesellschaft
- Länder ohne eigene KI-Kapazität werden abhängig von anderen
Geopolitik
Abschnitt betitelt „Geopolitik“KI ist eine strategische Ressource – wie Öl oder Waffen. USA und China wetteifern darum, die KI-Entwicklung zu dominieren, was alles von Wirtschaft bis Militärmacht beeinflusst.
Die Frage: Soll KI von privaten Unternehmen, Staaten kontrolliert werden – oder eine globale gemeinsame Ressource sein?
Militärische KI und autonome Waffensysteme werfen tiefgreifende ethische Fragen auf, auf die die internationale Gemeinschaft noch keine Antworten hat.
Problem 6: KI-Waffen und autonome Systeme
Militärische KI heute
Abschnitt betitelt „Militärische KI heute“- Drohnen, die selbständig Ziele identifizieren und angreifen
- KI, die Geheimdienstinformationen analysiert und Strategien vorschlägt
- Cyberkriegsführung mit KI
Die Frage: Soll KI Entscheidungen über Leben und Tod treffen?
Abschnitt betitelt „Die Frage: Soll KI Entscheidungen über Leben und Tod treffen?“Viele Forscher und Aktivisten kämpfen für ein Verbot von autonomen tödlichen Waffen – Waffen, die ohne menschliche Kontrolle töten können.
Die Probleme
Abschnitt betitelt „Die Probleme“- Eine KI kann keine moralischen Urteile treffen
- Risiko der Eskalation – KI reagiert auf KI in Millisekunden, ohne menschliche Überlegung
- Die Verantwortungsfrage: Wer trägt die Schuld für KIs Entscheidungen im Krieg?
Generative KI kann falsche Informationen erstellen, die fast unmöglich von echten zu unterscheiden sind – mit schwerwiegenden Folgen für Demokratie und Vertrauen.
Problem 7: Desinformation und Deepfakes
Was sind Deepfakes?
Abschnitt betitelt „Was sind Deepfakes?“KI-generierte Videos, Bilder oder Audio, in denen Personen Dinge sagen oder tun, die sie nie getan haben – unmöglich von echtem Material zu unterscheiden.
Konsequenzen
Abschnitt betitelt „Konsequenzen“- Politische Einflussnahme: Deepfake-Videos von Politikern, die „kontroverse Dinge sagen”
- Falsche Nachrichten: KI schreibt glaubwürdige, aber erfundene Nachrichtenartikel
- Falsche Beweise: KI-generierte Bilder werden als „Beweise” für Ereignisse verbreitet, die nie stattgefunden haben
- Persönliche Verletzung: Deepfake-Pornografie ohne Zustimmung
Wenn alles falsch sein kann – woher wissen wir, was wir vertrauen können?
Verteidigung
Abschnitt betitelt „Verteidigung“- KI, die Deepfakes erkennt (aber es ist ein Rüstungswettlauf)
- Medienkritik und Quellenprüfung
- Gesetzgebung gegen die Verbreitung von Deepfakes
Als Einzelperson und Bürger hast Du mehr Macht, als Du vielleicht denkst – sowohl in der Art, wie Du KI nutzt, als auch in der gesellschaftlichen Debatte, die ihre Zukunft gestaltet.
Was kannst DU tun?
Sei kritisch
Abschnitt betitelt „Sei kritisch“- Hinterfrage KI-Entscheidungen, besonders bei wichtigen Fragen
- Frage, wie die KI trainiert wurde und welche Daten sie verwendet
- Verlange Transparenz
Schütze Deine Privatsphäre
Abschnitt betitelt „Schütze Deine Privatsphäre“- Sei Dir bewusst, welche Daten Du teilst
- Nutze Privatsphäre-Einstellungen
- Unterstütze Gesetzgebung, die Dich schützt
Lerne mehr
Abschnitt betitelt „Lerne mehr“- Verstehe, wie KI funktioniert (dieser Kurs ist ein Anfang!)
- Bleib über Entwicklungen und Risiken informiert
Nimm an der Debatte teil
Abschnitt betitelt „Nimm an der Debatte teil“- KI beeinflusst die Gesellschaft – Deine Stimme zählt
- Unterstütze ethische KI-Entwicklung
- Fordere Politiker und Unternehmen zur Verantwortung auf
Zusammenfassung
Abschnitt betitelt „Zusammenfassung“Hier fassen wir die wichtigsten Erkenntnisse aus dem Abschnitt zusammen, bevor Du zum Quiz weitergehst.
- Privatsphäre: KI-Systeme sammeln riesige Mengen an Daten über Dich – oft ohne dass Du es weißt oder der Verwendung zugestimmt hast
- Bias: KI kann gesellschaftliche Ungerechtigkeiten bei Rekrutierung, Kreditvergabe und Strafvollzug automatisieren und verstärken
- Verantwortung: Es ist rechtlich und ethisch unklar, wer die Schuld trägt, wenn ein KI-System eine falsche Entscheidung trifft
- Arbeitsmarkt: KI riskiert gesellschaftliche Ungleichheiten zu vergrößern, wenn der Wandel nicht verantwortungsvoll gestaltet wird
- Macht: Die KI-Entwicklung wird von einigen Unternehmen und Ländern kontrolliert, mit geopolitischen Konsequenzen
- Deepfakes und Desinformation stellen ernsthafte Bedrohungen für Demokratie und Informationsvertrauen dar
Wissen testen
4 Fragen · 100 % richtig zum Bestehen · Antworten nach Abschluss prüfen