Und was es damit auf sich hat
In den vergangenen Tagen und Wochen durfte ich einige Webinare und Speaker-Sessions zum Thema Copilot abhalten. In praktisch ausnahmslos allen Events kamen von den Teilnehmenden Fragen zum Datenschutz auf. Das zeigt mir, dass dieses Thema offensichtlich sehr viele beschäftigt und das Wissen darüber noch nicht wirklich verbreitet ist. Aus diesem Anlass versuche ich nun ein wenig Licht ins Dunkel zu bringen. 💡
Die Kernfrage: Wie geht Copilot mit euren Daten um und wie stellt er sicher, dass eure Privatsphäre und eure Rechte gewahrt werden? Um diese Fragen zu beantworten, müssen wir uns zunächst damit befassen, wie der Datenfluss in Copilot abläuft. Die folgende Grafik zeigt auf eine simplifizierte Art und Weise, wie Copilot funktioniert: ⬇️
Wie ihr seht, gibt es drei aufeinanderfolgende Schritte in Copilot: Dein Prompt, das Ersuchen («Grounden») eurer Daten innerhalb von Microsoft 365 («Microsoft Graph») sowie die Response des LLM (Large Language Model). Der Prompt ist die Eingabe, die ihr an Copilot sendet, um einen Vorschlag zu erhalten. Die Response ist der Vorschlag, den Copilot euch zurückgibt. Die Daten sind die Informationen, die Copilot verwendet, um die Response zu generieren. Und diese Daten liegen in eurem M365-Tenant. ✔️
Die Antwort auf die Kernfrage lautet wie folgt: Sämtliche Prompts, Daten und Antworten von Copilot verlassen während des gesamten Prozesses euren M365-Tenant nicht! Ein weiterer wichtiger Aspekt, den es zu verstehen gilt ist, dass auch Microsoft eure Daten nicht verwendet, um ihre KI oder ihr LLM zu trainieren. Eure (Unternehmens-)Daten gehören und bleiben bei euch, Punkt. ☝🏼
Weitere Details könnt ihr direkt aus der Dokumentation von Microsoft entnehmen: https://learn.microsoft.com/de-de/copilot/microsoft-365/microsoft-365-copilot-privacy
Die 3 Säulen der Datenhoheit
Tauchen wir ein wenig tiefer in das Thema ein. Ich habe für euch ein 3-Säulen-Prinzip entwickelt, welches die wichtigsten Fragen zur Datenhoheit mit Copilot beantworten, die ich persönlich gestellt bekommen habe. Ausserdem gebe ich euch den einen oder anderen Tipp mit, wie ihr eure Daten am besten schützen könnt.
1. Datenschutz 🔒
Der Datenschutz ist ein wichtiges Thema für Copilot, denn eure Daten sind euer Eigentum und ihr solltet die Kontrolle darüber haben, wer sie sehen und verwenden kann. Wie oben bereits beschrieben, bleiben alle Prompts, Response-Prozesse und Daten innerhalb eures eigenen M365-Tenants und werden nicht an Dritte, insbesondere an Microsoft, weitergegeben. Zudem habt ihr die Möglichkeit eure Daten jederzeit einzusehen, zu ändern oder zu löschen, indem ihr die entsprechenden M365-Tools wie das Security & Compliance Center verwendet. 👨🏻💻
Ihr könnt euch auch sicher sein, dass eure Daten mit den geltenden Rechtsbestimmungen wie Datenstandort, DSGVO oder anderen lokalen Datenschutzgesetzen übereinstimmen. Das kommt daher, dass Copilot for Microsoft 365 Dienste aus Azure OpenAI und nicht die öffentlich verfügbaren OpenAI-Dienste (wie z.B. das Modell von ChatGPT) nutzt. Je nach dem, in welchem Land ihr tätig seid, liegen die nicht-öffentlichen Azure OpenAI Daten entweder in Schweizer Rechenzentren oder in der EU. Dieser Umstand sorgt auch dafür, dass eure Daten weder gesammelt noch gespeichert werden. 💾
2. Copyright 🚫
Das Copyright ist zweite Säule Säule der Datensicherheit in Copilot, denn eure generierten Inhalte wie Texte, Präsentationen oder E-Mails sind eure eigenen, kreativen Werke und ihr solltet auch die Rechte daran haben. Copilot hilft euch zwar, euch Inhalte zu generieren, aber ihr passt diese in 99% der Fälle auch an. Deshalb seid ihr der/die Autor/-in eurer Inhalte und ihr entscheidet, was ihr damit macht. Microsoft beansprucht keinerlei Copyright-Rechte, weder an den Prompts noch an den generierten Inhalten. 🛡️
Ein weiteres Thema, das in den Sessions aufgekommen ist, ist ob wir Inhalte wie Texte, Grafiken oder Bilder, die Copilot generiert und teilweise im Internet öffentlich zugänglich sind, überhaupt verwenden dürfen. ➡️ Copilot respektiert die Urheberrechte der Quellen und verwendet nur solche, die eine entsprechende Lizenz haben (z.B. Creative Commons Lizenz). Darüberhinaus vermeidet es Copilot, Texte 1-zu-1 zu kopieren oder zu plagiieren, indem es seine Vorschläge an eure Prompts anpasst und ihr die generierten Inhalte mit Folgeprompts verfeinern könnt. Bei jeder generierten Antwort sehrt ihr auch die Quellen der Vorschläge, sodass ihr einerseits volle Transparenz habt und andererseits urheberrechtlich abgesichert seid. Auch die von Copilot generierten Bilder sind von Microsoft lizenziert und unterstehen dem gängigen Urheberrecht. 🎯
3. Berechtigungen 🔑
Eure Berechtigungsstruktur bildet die dritte Säule der Datensicherheit in Copilot, denn ihr solltet die Kontrolle darüber haben, wer Copilot nutzen kann und welche Daten verwendet werden dürfen. Copilot basiert auf den Rechten des jeweiligen Users. Das bedeutet vereinfacht gesagt, dass Copilot nur auf die Daten zugreifen kann, die der User auch ohne KI suchen und finden kann. 🔍
Mit einer guten Daten- und Berechtigungsstruktur (z.B. mit geschlossenen Bereichen für HR- und Finanzdaten), könnt ihr die Risiken schon grossflächig abdecken. Jedoch gibt es noch weitere präventive Massnahmen um eure schützenswerte Daten vor unberechtigten Zugriffen abzusichern. Diese Massnahmen laufen über die «Information Protection» zusammen. Dies ist eine (Premium-)Funktion von Microsoft 365, die euch hilft, eure Daten zu klassifizieren, zu kennzeichnen und zu verschlüsseln, je nachdem, wie sensibel oder vertraulich sie sind. Darüber hinaus könnt ihr euren Daten sogenannte «Sensitivity Labels» vergeben, um anzuzeigen, wie sie behandelt werden sollen. Copilot erkennt die Sensitivity Labels eurer Daten und passt seine Vorschläge entsprechend an. 🏷️
Fazit 🗣️
Ist Copilot for Microsoft 365 bei euch im Einsatz, müsst ihr euch keine Sorgen bezüglich der Datensicherheit machen. Zusammengefasst schützt Copilot nicht nur eure Daten vor Dritten, sondern er respektiert eure (Copyright-)Rechte und lässt euch die Kontrolle über eure eigenen Daten, so wie es auch sein sollte. 👏🏼
Das grösste Risiko besteht aus meiner Sicht in eurer eigenen M365-Umgebung. Denn sowohl die Sicherheitseinstellungen, wie auch die Datenqualität müssen perfekt konfiguriert sein, damit ihr Datenlecks verhindern könnt. Denn eines dürfen wir nicht vergessen: Künstliche Intelligenz ist mächtig und findet Inhalte, die ein Endanwender möglicherweise nicht so einfach finden würde. Aber die KI findet diese Inhalte nur, wenn sie auch darf... 😉
Hat euch dieser Beitrag gefallen? Für mehr Insights rund um Copilot folgt mir auf LinkedIn und abonniert diesen Newsletter! 🚀
Comentários