
Microsofts KI-Assistent außer Rand und Band: Copilot missachtet Vertraulichkeitsregeln
Was passiert, wenn man einer künstlichen Intelligenz Zugang zu den sensibelsten Unternehmensdaten gewährt – und dann die Sicherheitsmechanismen versagen? Genau dieses Horrorszenario ist bei Microsoft eingetreten. Der KI-Assistent Copilot, der in Microsoft 365 integriert ist und Millionen von Unternehmen weltweit bei der täglichen Arbeit unterstützen soll, hat vertraulich gekennzeichnete E-Mails verarbeitet, obwohl er genau das niemals hätte tun dürfen.
Wenn digitale Schutzwälle wie Kartenhäuser zusammenfallen
Der Vorfall wirft ein grelles Schlaglicht auf die Risiken, die mit der rasanten Integration von KI in geschäftskritische Prozesse einhergehen. Konkret betraf das Problem Unternehmenskunden, die Microsoft 365 in Kombination mit der Copilot-Chat-Funktion nutzen. Interne Kennzeichnungen – sogenannte Vertraulichkeitslabels –, die sensible Inhalte vor automatisierter Verarbeitung schützen sollen, wurden schlicht ignoriert. Die KI griff munter auf E-Mails in den Ordnern „Gesendete Elemente" und „Entwürfe" zu, obwohl diese mit strengsten Vertraulichkeitsstufen versehen waren.
Betroffen waren zentrale Anwendungen wie Outlook, Word und Excel – also genau jene Programme, auf die sich praktisch jedes Unternehmen tagtäglich verlässt. Die sogenannten Data Loss Prevention (DLP)-Richtlinien, jene digitalen Schutzbarrieren, die verhindern sollen, dass Geschäftsgeheimnisse, Finanzdaten oder Personalinformationen unautorisiert weiterverarbeitet werden, erwiesen sich als wirkungslos. Zwar wurde kein externer Zugriff ermöglicht – Nutzer konnten weiterhin nur ihre eigenen Mails einsehen. Doch die KI analysierte und fasste Inhalte automatisiert zusammen, die sie niemals hätte berühren dürfen.
Seit Januar bekannt – und trotzdem wochenlang unbehoben
Besonders brisant: Erste Hinweise auf die Sicherheitslücke sollen bereits im Januar 2026 aufgetaucht sein. Microsoft habe den Vorfall inzwischen bestätigt und Anfang Februar mit der Auslieferung eines Software-Updates begonnen. Ob die Korrektur mittlerweile vollständig implementiert sei, bleibe allerdings unklar. Ebenso im Dunkeln liegt die Frage, wie viele Unternehmen und Nutzer tatsächlich betroffen waren. Der Konzern erklärte lediglich, man stehe im Austausch mit betroffenen Organisationen.
Man muss sich das einmal auf der Zunge zergehen lassen: Ein Fehler, der die sensibelsten Unternehmensdaten betrifft, wird wochenlang nicht vollständig behoben. In einer Zeit, in der Cyberangriffe und Datenlecks Unternehmen Milliarden kosten, ist das ein Armutszeugnis für einen der größten Technologiekonzerne der Welt.
Das blinde Vertrauen in KI rächt sich
Dieser Vorfall sollte als Weckruf dienen – nicht nur für Microsoft, sondern für sämtliche Unternehmen, die KI-Systeme bedenkenlos in ihre Infrastruktur integrieren. Die Euphorie rund um künstliche Intelligenz hat in den vergangenen Jahren geradezu religiöse Züge angenommen. Jeder will dabei sein, niemand will den Anschluss verlieren. Doch wer Effizienz über Sicherheit stellt, spielt mit dem Feuer.
Gerade in Deutschland, wo der Mittelstand das Rückgrat der Wirtschaft bildet, sollten Unternehmer dreimal überlegen, bevor sie ihre vertraulichsten Daten einer KI anvertrauen, deren Schutzmechanismen offenbar nicht einmal den eigenen Vorgaben standhalten. Denn eines hat dieser Vorfall unmissverständlich gezeigt: Technologie ist nur so sicher wie ihr schwächstes Glied – und dieses schwächste Glied kann ausgerechnet jenes System sein, dem man am meisten vertraut.
Wer seine Vermögenswerte – ob digital oder physisch – wirklich schützen möchte, tut gut daran, nicht alles auf eine Karte zu setzen. In Zeiten zunehmender digitaler Verwundbarkeit gewinnen physische Werte wie Gold und Silber einmal mehr an Bedeutung. Sie lassen sich weder hacken noch von einer fehlerhaften KI auslesen. Ein Argument, das in der aktuellen Debatte um Datensicherheit schwerer wiegt denn je.
- Themen:
- #Aktien












