Start in vier Geschmacksrichtungen
GPT-5 kommt heute: Frühe Enthüllung über GitHub und Microsoft
Am heutigen Abend um 19 Uhr deutscher Zeit will OpenAI ein neues Streaming-Event mit dem Titel „LIVE5TREAM“ abhalten. Zahlreiche Hinweise sprechen dafür, dass dabei das neue KI-Modell GPT-5 vorgestellt wird.
Frühe Enthüllung über GitHub
Bereits vorab sind über verschiedene Kanäle zentrale Informationen durchgesickert, darunter eine versehentlich veröffentlichte GitHub-Mitteilung und eine aktualisierte Copilot-Version von Microsoft.
Die GitHub-Meldung, die kurzzeitig online war, nennt vier Varianten von GPT-5:
- gpt-5: Ausgelegt für komplexe logische Aufgaben und mehrstufige Problemlösungen.
- gpt-5-mini: Ressourcenschonende Variante für kostenkritische Anwendungen.
- gpt-5-nano: Optimiert für Geschwindigkeit und niedrige Latenz in zeitkritischen Szenarien.
- gpt-5-chat: Konzipiert für multimodale, kontextreiche Dialoge in Unternehmensumgebungen.
Alle Versionen sollen über verbesserte Fähigkeiten bei Programmieraufgaben und komplexem Sprachverständnis verfügen.
Copilot wirbt bereits mit GPT-5
Neben GitHub hat auch Microsoft auf GPT-5 umgestellt. In den aktuellen Update-Notizen von Copilot für macOS ist GPT-5 in einem neuen „Smart Mode“ integriert, der laut Beschreibung intuitivere Gespräche und bessere Argumentationsketten ermöglichen soll. Gleichzeitig wurde die Anwendung für Mac-Nutzer technisch überarbeitet und läuft nun vollständig nativ.
Offiziell bestätigt wurde der GPT-5-Start durch OpenAI bislang nicht. Die Summe der Hinweise legt jedoch nahe, dass die Vorstellung des Modells Teil des heutigen Live-Events sein wird. Neben der GitHub-Integration und der Microsoft-Ankündigung hatten in den vergangenen Tagen auch OpenAI-Mitarbeiter auf sozialen Plattformen eine bedeutende Veröffentlichung angekündigt. CEO Sam Altman hatte bereits am Wochenende eine entsprechende Andeutung gemacht.
Die Einführung von GPT-5 fällt in eine Woche, in der OpenAI bereits zwei kleinere KI-Modelle unter Open-Source-Lizenz bereitgestellt hat.
Wieder 4 verschiedene Instanzen? Ich dachte die habens endlich geschafft, das Model anhand des Kontextes direkt auszuwählen sodass der User nicht diesem Model Chaos unterliegt
Widerspricht dem nicht. Kann im Vordergrund nur ein Eingabefenstwr sein und im Hintergrund wird das Model ausgewählt. Deswegen releasen die ja trotzdem mehrere Modelle.
Perplexity macht das zB so.
Wenn man die Versionen nicht versteht ist es für einen ein „Chaos“. Aber das eine schließt das andere nicht aus.
Wollten die nicht diese unterschiedlichen Versionen reduzieren und mehr Klarheit schaffen?
Ja – da geht es um thinking (wie o1 pro) und non-thinking Modelle (wie GPT4o) – die werden eins. Aber Du brauchst trotzdem unterschiedlich große Modelle, z.B. für Echtzeitanwendungen mit Voicebots muss die Antwortzeit sehr viel schneller sein – das geht nur mit einem kleineren Modell. Das ist aber eine Entscheidung, die Du (bzw. der Entwickler) nur einmal treffen muss.
Aktuell stehen zur Auswahl: 4o, o3, o4-mini, o4-mini-high, 4.5 Research Preview, 4.1 und 4.1-mini. Da ist eine Reduktion auf vier klare Modelle schon eine deutliche Verbesserung. Mini ist schon alleine für Free-User relevant, während Plus-User und Aufwärts wahrscheinlich auf 5-chat großzügigen Zugriff bekommen.
Das war kein Versehen oder „Durchsickern“… ihr schreibt darüber und genau das war gewollt.
Ich glaube spätestens ab morgen hätte dann ohnehin automatisch jeder darüber geschrieben. Wegen ein paar Stunden lohnt es sich kaum etwas absichtlich zu leaken.
Hoffentlich besser als 4o
Mal gucken ob diesmal die EU bereits am Anfang dabei sein darf, und welche Modelle es gleich zu Beginn ins Plus Abo schaffen und welche Pro – Usern vorbehalten werden….
Dürfte bei OpenAI nicht das Problem sein, die Modelle harmonieren mit dem AI Act
AI Act ist aber nicht gleich DSGVO. Daher gibt es manche Funktionen nicht.
Noch 3 Minuten