Wissenschaftler aus dem Bereich der Statistik haben gerade eine ‘rote Flagge’ gehisst und warnen eindringlich vor der Verwendung von Algorithmen zum maschinellen Lernen im Rahmen der Künstlichen Intelligenz (AI). In einigen Bereichen der biomedizinischen Forschung werden durch den Einsatz von AI und den Algorithmen ungenaue Ergebnisse erzielt, die die wissenschaftlichen Ergebnisse gefährden und neue Risiken bergen.
Künstliche Intelligenz und maschinelles Lernen gilt ja aktuell als ‘Stein der Weisen’. Man lässt einen Algorithmus auf einen Berg an Daten los und dieser erkennt Muster, die er dann in aufbereiteter Form ausspuckt. Durch maschinelles Lernen können die Algorithmen sich auf die gestellte Aufgabe optimieren. So weit so faszinierend. Allerdings gab es bereits vor Monaten Kritik, dass diese Algorithmen nicht ‘vorurteilsfrei’ arbeiten. Der Hintergrund ist, dass die Entwickler dieser Algorithmen mit eigenen Vorurteilen, Einstellungen und Prägungen zu kämpfen haben, die sich auf die Gestaltung der Algorithmen auswirken können bzw. werden.
KI in der Forschung, ein Problem
Wissenschaftler gehen jetzt noch einen Schritt weiter, wenn es um KI und maschinelles Lernen in der Forschung geht. Dort befasst sich eine wachsende Zahl wissenschaftlicher Untersuchungen sich mit dem Einsatz von maschineller Lernsoftware zur Analyse bereits gesammelter Daten. Dies geschieht in vielen Themenbereichen von der biomedizinischen Forschung bis zur Astronomie. Die Datensätze sind sehr groß und teuer.
Dr. Genevera Allen von der Rice University in Houston warnt: Maschinenlerntechniken, die von Tausenden von Wissenschaftlern zur Datenanalyse eingesetzt werden, führen zu irreführenden und oft völlig falschen Ergebnissen. Sie spricht davon, dass der zunehmende Einsatz solcher Systeme zu einer „Krise der Wissenschaft“ beitrage. Wenn die Wissenschaftler ihre Techniken nicht verbessern, würden sie sowohl Zeit als auch Geld verschwenden. Die Forschungsarbeiten von Dr. Genevera Allen wurden bei der American Association for the Advancement of Science in Washington vorgestellt.
Ein Beispiel für das Problem
Als Beispiel für den kritischen Ansatz wurde der Einsatz von KI mit maschinellem Lernen im Bereich der Krebstherapie/-forschung aufgeführt. Dort wird KI mit maschinellem Lernen genutzt, um Patienten mit Krebs zu untersuchen. Um die Krankheit zu erforschen, nutzen Wissenschaftler maschinelles Lernen, um genetisch ähnliche Individuen zu identifizieren. Die Idee: Arzneimitteltherapien können dann auf diese spezifischen Genome ausgerichtet werden. Beim Vergleich zwischen verschiedenen Studien unterscheiden sich die durch maschinelles Lernen identifizierten Cluster jedoch völlig voneinander.
Das Problem ist, dass maschinelle Lerntechniken keine Möglichkeit bieten, als Antwort „Ich weiß es nicht“ oder „Es ist nicht klar“ zu liefern. Die KI-Techniken führen immer zu einem Ergebnis in Form einer Antwort. Im Beispiel der Krebspatienten werden KI-Algorithmen immer eine Gruppe in irgendeiner Weise identifizieren – aber diese Antwort ist vielleicht nicht so sicher oder genau, wie man glaubt. Sprich: Die Techniken des maschinellen Lernens sind in der Lage, ein Muster, das im Datensatz existiert, zu finden. Aber wenn dieses Muster nur schwach ausgeprägt ist, kann das Ergebnis in der realen Welt nicht das halten, was der Algorithmus verspricht.
„In der Wissenschaft ist zur Zeit eine Krise der Reproduzierbarkeit allgemein anerkannt“, sagte Allen gegenüber der BBC News. „Ich würde es wagen zu behaupten, dass ein großer Teil davon auf den Einsatz von maschinellen Lerntechniken in der Wissenschaft zurückzuführen ist.“ Sprich: Die KI-Techniken, die angewandt werden, liefern Ergebnisse, die nicht reproduzierbar sind. Laut Dr. Allen liefert die KI Antworten, die wahrscheinlich ungenau oder falsch sind, weil die Software Muster identifiziert, die nur in diesem Datensatz und nicht in der realen Welt existieren.
Bei Interesse, die Seiten Digital Trends, die BBC und The Financial Times haben (englischsprachige) Artikel zum Thema publiziert.
Wir öffnen mit diversen neuen Technologien immer weitere Büchsen der Pandora. Wir machen Dinge, weil man es kann. Aber über die Folgen wird selten nachgedacht. Diverse Problemlösungen öffnen neue Probleme. Die scheinbaren Vorteile überwiegen. Das wird uns alles noch schwer auf die Füße fallen! KI ist so ein Thema, Atomenergie ein anderes, beim Plastikmüll und Verbrennungs(motor)abgasen sehen wir bereits global die direkten Folgen.
Schon die Terminator-Film-Reihe warnt vor KI! „Planet der Affen“ im Prinzip auch, auch wenn das keine KI ist. Und „Matrix“.
Schon heute werden Personen, nur weil sie in der „falschen“ Straße wohnen, von Anbietern im Netz ausgeschlossen. Weil deren „Score“ nicht hoch genug ist. bzw. die lieben Nachbarn zu viele Schulden gemacht hatten.
Die eigene Bonität wird nicht einmal mehr geprüft.
Wo früher der Computer die standard Ausrede war, um „Unfähigkeiten der Mitarbeiter“ zu kaschieren, muss er nun für eine engstirnige Politik der Unternehmen herhalten.
KI (AI) kann nur so gut sein, wie sie programmiert wurde. Also von den „Machern“ erdacht wurde. Nicht mehr aber auch nicht weniger.
Und da kommt dann wieder der Egoismus des Menschen ins Spiel.
Unternehmensbetreiber fördern ein solches KI(AI) Projekt nicht, aus reiner „Menschen Freundlichkeit“. Sondern weil sie ihren Gewinn maximieren möchten.
Auf was wird da wohl die KI(AI) optimiert?
Nachtrag:
Was wir heute „künstliche Intelligenz“ nenne, ist weit entfernt von Intelligenz.
Es sind schlicht und einfach nur Algorithmen, die von einem Menschen geschrieben wurden, der ein bestimmtest Ziel hatte. Diese entscheiden, ob man das NEUE „SUperPhone“ bekommt oder nicht.
Die Rechner sind nur so schnell geworden, das es diesen Anschein – für Politiker – erweckt.