Zwei Seiten der Medaille
In den vergangenen Monaten habe ich mich intensiv mit KI, ihren Risiken und Chancen auseinandergesetzt und viel recherchiert. Bei meinen Recherchen sind mir drei Fälle besonders ins Auge gesprungen, zu denen ich jeweils eine Meinung habe.

Autor: Ansgar Licher
1.
Windows wollte die KI-gesteuerte Recall-Funktion einführen.
Hintergrund: Bei der Recall-Funktion hätte eine KI jede Aktion, die am Windows-Rechner ausgeführt wird, per regelmäßigem Screenshot dokumentiert, die Inhalte ausgelesen, abgespeichert und diese für eine Suchfunktion zur Verfügung gestellt. Es wäre quasi ein fotografisches Gedächtnis entstanden, in dem der Nutzer Vergangenes suchen kann. Die Gefahr dabei: Für die vollständige Dokumentation des Rechners sammelt die KI große Menge Informationen und verknüpft diese. Nach massiver Kritik hat sich Microsoft entschieden, die Funktion zunächst nicht in die neuen PCs zu integrieren, sondern sie vorerst weiter mit Windows-Insidern zu testen. Außerdem soll sie nun standardmäßig deaktiviert sein, so dass Anwender ihre Aktivierung explizit vornehmen müssen. Ursprünglich sollte sie – ohne den Anwender darüber zu informieren – aktiviert sein.
Meine Sicht darauf: Die geplante Recall-Funktion von Windows birgt erhebliche Risiken für Datenschutz und Sicherheit. Durch die kontinuierliche Aufzeichnung und Speicherung von jedem Stück Text, jeder Benutzerinteraktion, allen sensiblen Daten wie Konto- oder Kreditkartennummern sowie Passwörtern könnte bei einem Hackerangriff ein Datenleck ungeahnten Ausmaßes entstehen. Dies gefährdet nicht nur die persönliche Privatsphäre, sondern auch sensible geschäftliche und staatliche Informationen.
2.
Viele KI-Firmen wollen die Daten nicht preisgeben, mit denen sie ihre Software trainieren.
Hintergrund: Das EU-Gesetz „AI-Act“ verpflichtet Firmen zur Offenlegung der Trainings-Daten von KI-Systemen, um eine externe Kontrolle der verwendeten Inhalte zu ermöglichen. Unternehmen sträuben sich häufig dagegen. Eines ihrer Argumente lautet: Konkurrenten könnten sich dadurch Vorteile verschaffen.
Meine Sicht darauf: Wenn KI-Firmen nicht preisgeben, womit sie die Bots füttern, besteht die Gefahr, dass die Inhalte hochgradig subjektiv sind. Schließlich lernt die KI auf Basis von Datenmassen und wird daher aktiv gesteuert. Die Geheimhaltung der Trainingsdaten verhindert die absolut notwendige Transparenz, die entscheidend ist, um mögliche Verzerrungen und Vorurteile in den Algorithmen zu erkennen und zu korrigieren. Ohne Offenlegung ist es schwierig sicherzustellen, dass die KI auf ethischen und ausgewogenen Daten basiert. Zudem wird die Glaubwürdigkeit und Akzeptanz von KI-Systemen in der Öffentlichkeit erheblich beeinträchtigt, wenn die Transparenz fehlt.
3.
KI-Chatbot-System erfindet Präzedenzfälle.
Hintergrund: Ein US-Rechtsanwalt befragt ChatGPT nach Präzedenzfällen für einen Fall – und übernimmt die Antworten ungeprüft. Vor Gericht stellt sich allerdings heraus: Die KI hat die vermeintlichen Präzedenzfälle erfunden.
Meine Sicht darauf: Der Vorfall macht deutlich, dass die Verantwortung letztlich immer beim Menschen liegt. Eine gesunde Skepsis und das Bewusstsein für die Möglichkeiten und Grenzen der KI sind dabei zentrale Komponenten. Nur durch kontinuierliches Mitdenken und kritisches Hinterfragen können wir die Nutzung der KI effektiv und sicher gestalten.