Unter welchen Bedingungen macht künstliche Intelligenz häufig Fehler: Grenzen des maschinellen Lernens
Einleitung: Die Natur der Fehler von künstlicher Intelligenz als systematisches Phänomen
Fehler moderner künstlicher Intelligenzsysteme (KI), die auf maschinellem Lernen (ML) basieren, sind keine zufälligen Ausfälle, sondern regelrechte Folgen ihrer Architektur, ihres Lernansatzes und des grundlegenden Unterschieds zu menschlichem Verständnis. Im Gegensatz zum Menschen "versteht" KI die Welt nicht semantisch; sie erkennt statistische Korrelationen in Daten. Ihre Fehler treten dort auf, wo diese Korrelationen gestört werden, wo abstrakte Schlussfolgerungen, gesunder Menschenverstand oder das Verständnis des Kontexts erforderlich sind. Die Analyse dieser Fehler ist entscheidend für die Bewertung der Zuverlässigkeit von KI und die Bestimmung der Grenzen ihres Einsatzes.
1. Das Problem des Datenverschiegens (Data Bias) und die "Gesetze von Garbage In, Garbage Out"
Der häufigste und sozial gefährlichste Fehlerquelle ist das Verschiegen in den Trainingsdaten. KI lernt und verstärkt Vorurteile, die in den Daten bestehen.
Demografische Verzerrungen: Ein berühmter Fall mit einem Gesichtserkennungssystem, das eine erheblich höhere Genauigkeit für hellhäutige Männer als für dunkelhäutige Frauen zeigte, da es auf einem unproportionalen Datensatz trainiert wurde. Hier "irrt" die KI nicht, sondern reproduziert genau den Diskurs des realen Lebens, was zu einem Fehler in der Anwendung in einer heterogenen Umgebung führte.
Semantische Verzerrungen: Wenn das Wortpaar "Schwester" in den Trainingsdaten für eine Textmodell häufig mit dem Pronomen "sie" verbunden ist und "Programmierer" mit "er", wird das Modell Texte generieren, die diese geschlechtsspezifischen Stereotypen reproduzieren, selbst wenn der Geschlecht in der Anfrage nicht angegeben ist. Dies ist ein Fehler auf sozialem Kontextniveau, den das Modell nicht versteht.
Interessanter Fakt: Im Bereich der Informatik gilt der Gru ...
Читать далее