Microsoft verwandelt Copilot in digitalen Assistenten mit Augen und Händen
25.11.2025 - 00:39:12Der Konzern aus Redmond macht Ernst mit seiner KI-Vision: Copilot soll künftig nicht nur Fragen beantworten, sondern eigenständig Computer bedienen. Mit drei bahnbrechenden Ankündigungen innerhalb von 72 Stunden läutet Microsoft das Ende der reinen Chatbot-Ära ein.
Ab gestern können erste Windows-Nutzer ihren KI-Assistenten komplett freihändig steuern. Das neue „Hey Copilot”-Kommando macht Tastendruck und Mausklick überflüssig. Parallel dazu stellte Microsoft Research ein Modell vor, das Bildschirme wie ein Mensch „sehen” und bedienen kann. Und mit „Copilot Actions” führt der Konzern Funktionen ein, die komplexe Aufgaben am lokalen Rechner autonom erledigen.
Viele Windows‑Nutzer übersehen beim Upgrade auf Windows 11 wichtige Schritte — und riskieren Datenverlust oder inkompatible Einstellungen. Gerade jetzt, wo Funktionen wie „Hey Copilot” und lokale KI‑Modelle ans Gerät kommen, ist eine saubere Installation und sichere Datenübernahme entscheidend. Der kostenlose Gratis‑Report erklärt Schritt für Schritt mit Checklisten und Screenshots, wie Sie Windows 11 korrekt installieren, Programme und Dateien übernehmen und typische Fehler vermeiden. Jetzt kostenlosen Windows‑11‑Komplett‑Report sichern
Die Botschaft ist klar: Aus dem digitalen Gesprächspartner wird ein handelnder Agent.
Die Spracherkennung läuft vollständig lokal auf dem Gerät, wie Microsoft in seinem Roadmap-Update vom 24. November betont. Das System lauscht ausschließlich nach dem Aktivierungswort – Audio-Aufzeichnungen oder Cloud-Übertragungen erfolgen erst nach dem bewussten Start einer Unterhaltung.
„Nutzer bleiben im Arbeitsfluss und erhalten Unterstützung per Stimme”, erklärt das Unternehmen. Die Preview-Phase läuft bereits für ausgewählte Insider-Teilnehmer.
Noch natürlicher wird die Bedienung durch „semantische Verabschiedungen”. Künftig genügt ein „Tschüss, Copilot”, um das Fenster zu schließen – kein Griff zur Maus mehr nötig. Diese Funktion soll in Kürze in die Vorschau starten.
Kleines Modell schlägt GPT-4o
Das eigentliche technologische Highlight präsentierte Microsoft Research am Montag: Fara-7B. Dieses experimentelle Small Language Model verfügt über gerade einmal sieben Milliarden Parameter – ein Bruchteil dessen, was große Sprachmodelle mitbringen.
Dennoch übertrifft es laut Microsoft in spezifischen Benchmarks sogar OpenAIs GPT-4o, wenn es um die Navigation durch Web-Oberflächen geht. Der Clou: Fara-7B interagiert mit dem Computer genau wie ein menschlicher Nutzer – ausschließlich über das, was auf dem Bildschirm sichtbar ist.
„Das Modell nimmt Webseiten visuell wahr, klickt Buttons, tippt Text und navigiert durch komplexe Workflows”, beschreibt Microsoft Research die Fähigkeiten. Website-Entwickler müssen keine speziellen Schnittstellen einbauen, die KI arbeitet mit existierenden Oberflächen.
Welche Bedeutung hat das für die Praxis? Erstmals könnte eine KI sensible Aufgaben komplett lokal erledigen, ohne Bildschirminhalte in die Cloud zu senden – ein entscheidender Durchbruch für Unternehmen mit strengen Datenschutzanforderungen.
Virtualisierte Sandbox schützt vor KI-Eingriffen
Auf der Ignite-Konferenz letzte Woche führte Microsoft bereits Copilot Actions für Windows Insider ein. Diese Funktion bringt das agentenhafte Verhalten direkt auf den Desktop: Nutzer können etwa „Organisiere meine Urlaubsfotos” oder „Fasse alle PDFs im Download-Ordner zusammen” anweisen – Copilot erledigt die mehrstufigen Dateioperationen eigenständig.
Doch was, wenn die KI Fehler macht oder missbraucht wird? Microsoft hat dafür den Agent Workspace geschaffen. Diese virtualisierte, abgeschottete Umgebung isoliert die KI vom Kernsystem. Nutzer können in Echtzeit überwachen, welche Aktionen der Agent ausführt, bevor Änderungen endgültig werden.
Paradigmenwechsel: Vom Generator zum Handelnden
Die Ankündigungen der vergangenen drei Tage markieren einen Bruch in der KI-Strategie. Zwei Jahre lang dominierten generative Systeme die Branche – Tools, die Texte und Bilder erschaffen. Microsoft setzt nun massiv auf agentische KI: Systeme, die Aufgaben ausführen.
„Wir erleben den Wandel vom assistierenden Copiloten zum handelnden Agenten”, analysierten Branchenbeobachter nach der Ignite-Keynote. Besonders Fara-7B könnte wegweisend werden: Effiziente On-Device-Modelle für komplexe Workflows lösen das größte Adoptionshindernis im Enterprise-Bereich – das Vertrauen in die Datensicherheit.
Zum Vergleich: Während deutsche Tech-Konzerne wie SAP vor allem auf Cloud-basierte KI-Assistenten für Business-Software setzen, geht Microsoft mit lokaler Verarbeitung einen anderen Weg. Das könnte besonders unter der strengen EU-Datenschutzgrundverordnung zum Wettbewerbsvorteil werden.
Ausblick: Tastatur und Maus werden optional
Die „Hey Copilot”-Funktionen befinden sich derzeit in der Preview-Phase, der breite Rollout wird für Ende Dezember oder Januar 2026 erwartet. Fara-7B bleibt vorerst ein Forschungsprojekt, doch die Architektur lässt erahnen, wohin die Reise geht: ein Betriebssystem, in dem die KI nicht nur Fragen beantwortet, sondern die Benutzeroberfläche parallel zum Nutzer steuert.
2026 könnte das Jahr werden, in dem Routine-Aufgaben am Computer auch ohne menschliche Eingabegeräte erledigt werden. Die Frage ist nicht mehr, ob KI-Agenten kommen – sondern wie schnell wir bereit sind, ihnen die Kontrolle zu überlassen.
PS: Microsoft verändert mit Copilot Actions und On‑Device‑KI die Art, wie wir mit Windows arbeiten — ein sorgfältig geplanter Umstieg auf Windows 11 zahlt sich aus. Unser Gratis‑Report fasst die wichtigsten Vorbereitungsschritte zusammen, liefert praktische Checklisten für Daten‑ und Programmübernahme und zeigt, welche Einstellungen Sie vor dem Rollout prüfen sollten. Perfekt für alle, die den Wechsel stressfrei und sicher durchführen wollen. Hier Gratis‑Report zu Windows 11 sichern


