Microsoft geht mit seinem 365-Copilot den nächsten Schritt in Richtung autonomer KI-Assistenz. Doch was bedeutet das für Unternehmen – und wie sicher ist das Ganze wirklich?
Mit der neuen Funktion „Researcher with Computer Use“ führt Microsoft einen KI-Agenten ein, der selbstständig im Web agieren kann. Er klickt, navigiert und führt Code aus – ähnlich wie ein digitaler Kollege, der eigenständig recherchiert oder Berichte erstellt. Dafür nutzt der Copilot eine virtuelle Maschine auf Windows-365-Basis, die für jede Sitzung neu gestartet wird. Diese Sandbox bleibt strikt getrennt von Unternehmensnetzwerk und Endgerät.
Der Agent kann sogar hinter Logins greifen – etwa bei Paywalls oder in internen Datenbanken. Allerdings immer erst nach ausdrücklicher Freigabe durch den Nutzer. Admins behalten die Kontrolle, bestimmen, welche Teams den Modus nutzen dürfen und welche Websites oder Datenquellen zugänglich sind. Damit bleibt die Transparenz gewahrt, und sämtliche Aktivitäten werden protokolliert.
Trotz dieser Schutzmaßnahmen bleibt ein Restrisiko. Studien zeigen, dass autonome KI-Systeme besonders im Umgang mit externen Inhalten anfällig für Sicherheitsprobleme sein können. Microsoft will hier mit klaren Richtlinien und Audit-Funktionen Vertrauen schaffen.
