ChatGPT & Co.
Risiken und Ungewissheiten beim Nutzen von KI
03.02.2025 | Künstliche Intelligenz (KI) revolutioniert bereits heute viele Bereiche unseres Lebens und unserer Arbeitswelt. Von Sprachassistenten wie Alexa oder Siri bis hin zu KI-gestützter Bildbearbeitung – KI ist dabei, Prozesse effizienter zu gestalten und unser Potenzial zu erweitern.
Eine der Innovationen ist der Microsoft Copilot, der direkt in die Microsoft-365-Apps integriert wurde und Nutzenden als intelligenter Assistent dient. Doch bei aller Begeisterung für die Möglichkeiten dieser Technologie werfen KI-Systeme auch Fragen auf, insbesondere in Bezug auf Risiken, Datenverarbeitung und die Verlässlichkeit der bereitgestellten Informationen.
In diesem Artikel beleuchten wir, warum KI auch Schattenseiten hat, wie der Copilot von Microsoft funktioniert und was uns in naher Zukunft im Bereich KI erwartet.
Obwohl KI mittlerweile in vielen Bereichen zum Einsatz kommt, ist sie für viele Menschen weiterhin ein neues und noch unbekanntes Tool.
Viele Nutzer stellen sich folgende Fragen:
- Wie genau funktioniert KI eigentlich?
- Wie geht die Technologie mit meinen Daten um?
- Wie zuverlässig sind die Informationen, welche mir die KI liefert?
Diese Ungewissheiten sind nicht unbegründet. Eine der größten Herausforderungen besteht darin, dass KI-Systeme oft als „Black Box“ fungieren. Doch was bedeutet das?

Die "Black Box": Ein Blick ins Verborgene
Wenn von einer Black Box gesprochen wird, ist gemeint, dass die internen Prozesse, durch die eine KI wie ChatGPT zu ihren Ergebnissen kommt, für die meisten Nutzenden nicht transparent sind:
- Keine Nachvollziehbarkeit: Während KI beeindruckende Lösungen liefert, bleibt oft unklar, wie genau ein System eine Empfehlung oder Antwort erarbeitet hat.
- Komplexität der Algorithmen: Die zugrundeliegenden Algorithmen, auch LLMs genannt (Large Language Models), sind Systeme, welche Milliarden von Parametern nutzen, um aus großen Datenmengen Muster zu erkennen. Diese Prozesse sind so komplex, dass sie selbst für KI-Experten manchmal schwer nachzuvollziehen sind.
- Mangelnde Transparenz: Anders als bei einer traditionellen Software, die klar definierte Regeln befolgt, sind KI-Systeme selbstlernend. Das bedeutet, sie entwickeln ihre „Lösungswege“ basierend auf den Daten, mit denen sie trainiert wurden, und treffen Entscheidungen auf Basis dieser Muster. Das Problem: Die Nutzenden sehen nur das Endergebnis, nicht den Entscheidungsprozess.
Datenschutz und Datenverarbeitung: Wo landen meine Informationen?
Ein zentraler Punkt bei der Nutzung von KI-Diensten ist der Umgang mit persönlichen und geschäftlichen Daten. Viele Unternehmen sind weiterhin zögerlich, weil sie befürchten, die Kontrolle über ihre sensiblen Informationen zu verlieren. Beispielsweise Microsoft betont jedoch, dass ihr hauseigner MS Copilot keine Daten für das Training der KI verwendet und diese ausschließlich innerhalb der Unternehmensumgebung bleiben.
Trotzdem bleibt die Frage, wie sicher die Verarbeitung wirklich ist. Schließlich greift der Copilot auf eine Vielzahl von Daten zu – von E-Mails über Kalender bis hin zu Dokumenten. Es ist wichtig, sich bewusst zu machen, dass die Verantwortung für Datenschutz nicht allein bei Microsoft liegt, sondern auch bei den Nutzenden und Unternehmen, die entsprechende Sicherheitsmaßnahmen umsetzen müssen, auch damit innerhalb des Unternehmens sensible Daten nicht in die falschen Hände geraten.
Warum KI manchmal scheitert: Die Grenzen der Technologie
Ein weiterer Grund für Ungewissheit bei KI liegt in ihren aktuellen technologischen Einschränkungen. Modelle wie OpenAIs GPT-4, das die Grundlage für Microsoft Copilot bildet, sind beeindruckend leistungsstark, aber sie sind nicht unfehlbar.
- Mangelndes Verständnis: KI hat kein echtes „Verständnis“ von Kontext oder menschlicher Absicht, sondern analysiert nur Muster in Daten. Das kann zu Missverständnissen oder irrelevanten Vorschlägen führen.
- Fehlende Kreativität: Obwohl KI kreativ erscheinen mag, handelt es sich in Wirklichkeit um eine Kombination aus vorhandenen Informationen, nicht um echte Innovation.
- Gefahr von Bias: Wenn die zugrunde liegenden Daten Vorurteile oder Fehler enthalten, reproduziert die KI diese.
Beispielsweise gab es einen Vorfall, bei dem der Algorithmus eines großen Tech-Unternehmens Frauen systematisch benachteiligte, da sein „Training“ nur mithilfe von männlichen Lebensläufen durchgeführt wurde. Dies zeigt deutlich, dass selbst klein erscheinende Parameter innerhalb des Datensatzes große Auswirkungen auf die Entscheidungsfindung der KI-Modelle haben können.
Für Nutzende bedeutet dies, dass sie die Ergebnisse des Copiloten stets kritisch prüfen und sich bewusst sein müssen, dass sie nicht blind auf die Vorschläge vertrauen sollten.
Der Blick in die Zukunft: Wohin steuert die KI-Entwicklung?
Trotz der bestehenden Risiken und Ungewissheiten ist die Entwicklung im Bereich KI rasant. Microsoft und andere Unternehmen arbeiten daran, ihre Systeme kontinuierlich zu verbessern. Die Integration von KI in Tools wie M365 zeigt, dass die Technologie immer benutzerfreundlicher und zugänglicher wird.
Einige spannende Trends, die wir in naher Zukunft erwarten können:
KI-Modelle wie Copilot lernen ständig dazu und werden immer besser darin, sich an individuelle Arbeitsweisen anzupassen.
Entwickler arbeiten daran, KI-Systeme erklärbarer zu machen, sodass Nutzende besser verstehen, wie Ergebnisse zustande kommen.
Von der Medizin bis hin zur Finanzbranche – KI wird weiter in spezialisierte Anwendungsgebiete vordringen.
Doch mit diesen Fortschritten wächst gleichzeitig auch die Verantwortung. Es wird entscheidend sein, klare Regeln für den Einsatz von KI zu schaffen, um eine sichere und ethische Nutzung zu gewährleisten.