Gewinne beim Anbieter, Risiken beim Nutzer
Microsoft Copilot: „Nur für Unterhaltungszwecke“ gedacht
Microsoft hat seinen Copilot in den vergangenen Monaten tief in das eigene Produktuniversum eingebaut. Der Assistent taucht im Browser, in Windows, in Office-Anwendungen und an vielen weiteren Stellen auf. Umso genauer wird nun auf die begleitenden Nutzungsbedingungen geschaut.
Microsofts Copilot gibt es als eigene Mac-App
Dort findet sich eine Formulierung, die dem System einen erstaunlich kleinen rechtlichen Rahmen setzt: Copilot sei nur für Unterhaltungszwecke gedacht, könne Fehler machen und solle nicht für wichtige Ratschläge herangezogen werden.
Produktversprechen und juristische Vorsicht
Microsoft vermarktet Copilot seit Langem als Hilfe für Alltag und Arbeit. Der KI-Assistent soll Texte formulieren, Inhalte strukturieren, Fragen beantworten und Aufgaben beschleunigen. Wenn derselbe Assistent in den Nutzungsbedingungen zugleich rechtlich auf den Status eines Unterhaltungssystems zurückgestuft wird, passt das nur schwer zum vermittelten Produktanspruch.
Ein Auszug aus den „Microsoft Copilot Terms of Use“
Juristisch ist ein solcher Haftungsvorbehalt nicht völlig ungewöhnlich. Softwareanbieter arbeiten seit Jahren mit breiten Ausschlüssen und warnen davor, sich blind auf Ergebnisse zu verlassen. Bei generativer KI fällt dieser Hinweis jedoch stärker ins Gewicht, weil die Anwendungen gerade als produktive Helfer in beruflichen Zusammenhängen positioniert werden.
KI soll im Alltag nützlich sein, einstehen wollen die Anbieter für die (unbeabsichtigten) Nebenwirkungen dieser Nutzung aber nicht.
Verwirrung um die vielen Copilot-Varianten
Hinzu kommt, dass Microsoft sehr unterschiedliche Angebote unter derselben Marke bündelt. Der frei zugängliche Chatdienst, Microsoft 365 Copilot, GitHub Copilot und weitere Einbindungen laufen alle unter demselben Namen, folgen aber nicht zwingend denselben Regeln. Das macht die Einordnung schwierig.
Copilot in Microsoft Word
Erschwerend kommt hinzu, dass Nutzer den Assistenten vielerorts nicht aktiv suchen, sondern ihm in bereits vertrauten Programmen begegnen. Gerade dort wirkt der Hinweis, man könne die Nutzung jederzeit beenden, nur begrenzt überzeugend. Denn der Verzicht auf Copilot bedeutet in vielen Fällen auch, sich bewusst gegen eine tief in den Arbeitsalltag eingebettete KI-Nutzung zu entscheiden.



Der Copilot ist kaum brauchbar und von daher sowieso völlig entbehrlich.
Das ist doch absoluter Quatsch. Es ist so nutzbar (oder halt nicht) wie ChatGPT. Da sie u.A. die gleichen Modelle nutzen. Ich weiß aber nicht, wie abgesteckt der Copilot für privatuser ist. In m365 Kontext hast du alles was ChatGPT dir anbietet (bzw. habe ich keine Grenze erkannt um zu ChatGPT bzw. Gemini zu wechseln).
Wir nutzen auf der Arbeit die Pro-Version von Copilot und dort stehen bspw. auch die aktuellen ChatGPT Modelle wie 5.4 Thinking zur Auswahl, was durchaus sehr brauchbar ist.
Bei uns auch…
Kannst Du konkreter ausführen was Du damit sagen möchtest? Was kann Copilot nicht oder schlechter was z.B. Gemini, cgpt oä (besser) kann?
Copilot nutze ich auf dem iPhone im Alltag häufig zum schnellen Nachschlagen oder Vergleichen von Dingen. Das funktioniert bestens. Auch die Konversationsfunktion ist gut, bisschen lustig mit dem amerikanischen Akzent, aber durchaus brauchbar.
Sehe ich auch so. In der Firma haben wir die Copilot-Plus Lizenzen für Business.
Ich brauchte zu einer definierten Liste an Ländern Aussagen zu Lizenz-Anforderungen. Copilot lag in 50% der Fälle falsch. Obwohl in den teilweise verlinkten Dokumenten die richtige Aussage stand. Auf meinen Hinweis, dass in Artikel X auf Seite Y des verlinkten Dokumentes es doch anders stehe, kam dann: „Oh, danke dass du mich darauf hinweist. Das ändert meine Aussage fundamental.“
Perplexity selbst im „Beste Modus“ lag zu 100% richtig.
Also danke, aber nein danke zu Copilot.
Ja perplexity ist wirklich super. Zusätzlich hat man dort such claude welches super stark ist
In Visual Studio ist Copilot sehr hilfreich.
Ist das zufälligerweise jemand anderem auch schon aufgefallen oder ist das aus welchem Grund auch immer nur bei mir so, dass in Outlook für iOS Copilot plötzlich anscheinend nur noch anders oder eingeschränkt funktioniert und das seit zwei Tagen?
Ich habe eine bezahlte Business-Version und normalerweise kriege ich Text, was mit Tools wie Raycast und so weiter perfekt funktioniert, und dann nutze ich den Copilot-Button, um auf Basis meines vorgegebenen Prompts den E-Mail-Text zu überarbeiten. Das funktioniert eigentlich sehr gut mittlerweile und genau das vermisse ich jetzt. Ich sehe nur die Optionen, Coaching abrufen, was im Grunde völlig umsonst ist, weil man immer alle Coaching-Vorschläge annehmen müsste und Entwürfe anpassen, was aber hier auch nicht zielführend ist, weil man dann zum System-Prompt kommt. Alles andere ist verschwunden.
Wenn es jemanden hier gleich geht, weiß vielleicht jemand, warum das so ist und wie man dann mit dieser Funktion generell weiterarbeiten soll. Schöne Grüße, Stefan.
Ich kann auch seit ein paar Wochen keine Dokumente mehr in der M364 Copilot App öffnen. Das ging die letzten Monate problemlos, weil die Office Dokumente von der App zusammenfassend unterstützt wurden. Jetzt muss ich wieder die einzelnen Apps von Excel, Word und Powerpoint nutzen. Vielleicht bin ich auch einfach unfähig, aber bisher konnte ich Office Dokumente aus der Dateien über in M365 öffnen. Es ist mega unübersichtlich geworden.
Du musst upgraden. M364 arbeitet nicht mit M365 zusammen :-D *scnr*
Der vorletzte Satz ging schief. Was ich sagen wollte: Bisher konnte ich aus der iOS Dateien App heraus Office Dokumente in M365 öffnen. Das klappt jetzt nicht mehr.
Endlich mal ehrliche Nutzungsbedingungen für einen KI Chatbot… its only for entertainment …
„We are only in it for the money“ F.Z.
Ich nutze drei bekannte KI, auch den Copilot. Alle habe ihre Stärken und Schwächen, je nach Anwendung. Das der Copilot schlecht sei kann ich nicht bestätigen. Und einer KI Glauben schenken tu ich eh nicht, egal welcher.
Ja, so ist es. es gibt überalle Unterschiede und Vor- und Nachteile. Komplett darauf verlassen sollte man sich ohne die Quellen nicht. Das gilt aber für jede KI.
So eine rechtliche Absicherung machen alle Hersteller von Programmen.
Auch in der Industrie oder dem Bau übernehmen z.B. die Anbieter von Statik-Software keine Haftung dafür, dass die Ergebnisse am Ende auch stimmen. Dafür haftet am Ende das Statikbüro, welches die Software einsetzt.
Und mit generativer KI ist es halt das gleiche und vollkommen korrekt, dass man sich über die Verwendung davon nicht aus der Verantwortung stehlen kann.
Es sollte verboten sein, in der Werbung höhere Erwartungen zu wecken, als man bereit ist, rechtlich einzugestehen.
Wenn der nur für Unterhaltungszwecke gut ist, dann muss man wohl auch auf irgendwie schlechte, unkreative, gewöhnliche Unterhaltungsangebote stehen.
Zumindest habe ich noch keine copilotierte Unterhaltung gesehen, die wirklich neu erfunden ist, sondern immer irgendwie den Charme des „das hab ich irgendwo abgeguckt“ hatte.
Bedenkt man den REssourcenverbrauch für diese Spielereien und die Folgen daraus, Lieferknappheit von Computerbauteilen usw… ist der Sinn und Zweck wirklich arg infrage zu stellen.
Wenn ich also CoPilot bei uns in der Arbeit verwende, was von uns auch erwartet wird, dient es nur der Unterhaltung. Unglaublich.
Wir haben auch die Pro Version auf der Arbeit und es ist fantastisch. Beispielsweise die automatischen Teams Notizen oder prompting innerhalb Excel.
Wird eine große Rolle spielen bei der Entstehung Skill basierter Organisationen