News 5. Februar 2025 von Deimos AG 8 Leseminuten DeepSeek vs. ChatGPT: Wo liegen die Unterschiede?

In den letzten Tagen hat das chinesische KI-Unternehmen DeepSeek weltweit für Aufsehen gesorgt. Mit beeindruckender Effizienz und Geschwindigkeit ihres neuen Modells R1 hat sie es geschafft, etablierte US-Konkurrenten wie ChatGPT hinter sich zu lassen. Die Möglichkeit, DeepSeek nahtlos in verschiedene Softwarelösungen zu integrieren, eröffnet neue Perspektiven für Unternehmen. Gleichzeitig werfen jedoch Bedenken hinsichtlich des Datenschutzes Fragen auf, insbesondere im Vergleich zu bestehenden Modellen. In diesem Blogpost werden wir die beiden KI-Modelle gegenüberstellen und ihre jeweiligen Stärken und Schwächen beleuchten. 

DeepSeek vs ChatGPT

Modellarchitektur und Leistung

1. Wie unterscheidet sich die Architektur von DeepSeek-R1 im Vergleich zu ChatGPT

Bei der Erstellung von GPT o1 und DeepSeek-R1 waren die Herangehensweisen von OpenAI und DeepSeek unterschiedlich.  

Modell

DeepSeek-R1 und GPT o1 sind zwei fortschrittliche KI-Modelle mit unterschiedlichen Entwicklungsansätzen. DeepSeek-R1 wurde zunächst ausschliesslich durch Verstärkungslernen (Reinforcement Learning) trainiert, wobei das Modell durch Versuch und Irrtum lernte. Später wurde es mit menschlich erstellten Beispielen verfeinert, um die Verständlichkeit und Kohärenz der Antworten zu verbessern. Ein bemerkenswertes Merkmal von DeepSeek-R1 ist die Verwendung des GRPO-Optimierungsalgorithmus, der separate Wertmodelle überflüssig macht und somit die Trainingskosten reduziert.  

Im Gegensatz dazu wurde GPT o1 hauptsächlich durch überwachte Feinabstimmung (Supervised Fine-Tuning) und Verstärkungslernen aus menschlichem Feedback (RLHF) trainiert. Der Fokus lag dabei auf einem breiten Sprachverständnis und der Fähigkeit, vielfältige Aufgaben zu bewältigen. GPT o1 stützt sich auf umfangreiche, beschriftete Datensätze, um ein robustes und vielseitiges Modell zu entwickeln.  

Zusammenfassend lässt sich sagen, dass DeepSeek-R1 einen spezialisierten Ansatz mit Fokus auf Selbstkorrektur und Effizienz verfolgt, während GPT o1 auf eine breite Sprachkompetenz und Vielseitigkeit abzielt. 

Training

Laut Angaben von DeepSeek wurde R1 mit Kosten von nur rund 6 Millionen Dollar trainiert, und dies ohne die Leistungsfähigsten KI-Beschleuniger Chips von Nvidia, aufgrund von Handelsbeschränkungen der USA. Dies war der Grund für den grossen Impact auf dem Börsenmarkt, da es zeigte, dass nicht enorme Ressourcen benötigt werden um ein solches Modell zu entwickeln. Es gibt aber auch Zweifel an diesen Zahlen und ob DeepSeek tatsächlich keinen Zugang zu den Flaggschiff Nvidia H100 Chips hatte (Quelle: The Economic Times, 29.01.2025) .  

Architektur

Bei der Architektur des aktivierten Modells zeigt sich ein grosser Unterschied. DeepSeek setzt auf eine sogenannte Mixture-of-Experts (MoE)-Struktur. Dabei werden virtuelle “Experten” innerhalb des Modells erstellt. Dabei gibt es beispielsweise verschiedene Experten für Coding, Mathematik und natürliche Sprache. Diese brauchen innerhalb des gesamten Modells mit 671 Milliarden Parametern nur einen Teil davon, nämlich 37 Milliarden pro Token. Dies bedeutet einen kleineren Rechenaufwand, da nicht das ganze Modell gleichzeitig aktiviert sein muss. Für einfachere Abfragen werden dementsprechend auch weniger Parameter benutzt.

Bei GPT o1 ist das Modell noch in der bisher bekannten Architektur, wobei alle Parameter aktiviert werden.

Quellen: Hugging Face, 28.01.2025 | Pablo Junco Boquer, 25.01.2025 | Medium, 28.01.2025
 

2. Welche Unterschiede gibt es in der Antwortqualität, Kreativität und Problemlösungsfähigkeit zwischen DeepSeek-R1 und ChatGPT? 

Die Qualität der Antworten, sowie die Kreativität und Problemlösungsfähigkeit zwischen DeepSeek-R1 und GPT-o1 sind vergleichbar. Der Reasoning-Prozess bei DeepSeek-R1 ist ausführlicher und ausgeprägter.
 

3. Welche Sprachen werden von DeepSeek-R1 und ChatGPT unterstützt, und gibt es Unterschiede in der Sprachqualität?

Grundsätzlich unterstützen beide Modelle die allermeisten Sprachen, inklusive Schweizerdeutsch. Die kleineren "Distilled" Modelle von DeepSeek sind weniger gut in Sprachen ausser Englisch. Die Modelle sind aufgrund der Trainingsdaten des Internets am stärksten in Englisch, wobei DeepSeek Tendenzen hat bei schwierigeren Requests ins Chinesische zu wechseln, zumindest bei den kleineren “Distilled” Modellen. Dies wurde bei internen Tests auf unserem AI Server beobachtet. 
 

4. Wie gut ist DeepSeek-R1 im Vergleich zu ChatGPT bei komplexen Aufgaben wie logischem Denken oder mathematischen Berechnungen? 

Beide sind sehr gut im Lösen vom logischen Problemen und mathematischen Berechnungen. DeepSeek ist besser im Erklären der argumentativen Schlussfolgerung, bevor das Resultat beschrieben wird. Das OpenAI o1 Model kann nicht zusammen mit einer Internetsuche verwendet werden, während das bei DeepSeek möglich ist. 

Datenschutz und Compliance

5. Wie gehen DeepSeek-R1 und ChatGPT mit sensiblen Unternehmensdaten um? Gibt es Unterschiede bei der Speicherung und Nutzung von Eingaben? 

ChatGPT wird in den USA gehostet, und DeepSeek in China. Die Anfragen werden alle in den jeweiligen Ländern verarbeitet. 

Die Privacy Policy von DeepSeek besagt, dass alle Eingaben, die an die DeepSeek Chat-Webseite gesendet werden von ihnen benutzt werden dürfen. Es sollten also keine vertraulichen Daten dorthin gesendet werden.  

Für ChatGPT trifft das auch zu, jedoch gibt es eine DSVGO-kompatible Privacy Policy für Personen aus der EU und der Schweiz. Man kann eine Löschung der persönlichen Daten anfordern. 
 

6. Welche Open-Source-Alternativen bietet DeepSeek-R1, und wie unterscheidet sich das von den Lizenzen und Nutzungsbedingungen von ChatGPT? 

OpenAI stellt keinerlei Open-Source Varianten ihrer Modelle zur Verfügung. DeepSeek stellt sowohl das komplette Modell R1, als auch kleinere, "Distilled" Modelle zur Verfügung, welche auf nicht-spezialisierter Hardware lokal gebraucht werden können. Diese schicken keinerlei Daten zu externen Servern. 

Einsatzmöglichkeiten und Integration

8. Welche Plattformen und API-Schnittstellen bieten DeepSeek-R1 und ChatGPT? Wie einfach ist die Integration in bestehende Softwarelösungen? 

Die API-Schnittstellen sind für beide Anbieter identisch, da DeepSeek eine OpenAI-Kompatible Schnittstelle zur Verfügung stellt. Eine Integration in bestehende Softwarelösungen ist dank existierender Libraries einfach umzusetzen. Mit den Open-Source Modellen von DeepSeek ist es auch möglich, die Modelle lokal zu hosten und die Softwarelösungen damit zu verbinden, statt die API der online-Versionen zu verwenden. 
 

9. Welche sind die typischen Anwendungsfälle für DeepSeek-R1 im Vergleich zu ChatGPT – gibt es Bereiche, in denen eines der Modelle klar überlegen ist?

DeepSeek R1 ist ein sehr mächtiges Modell, welches zu ChatGPT o1 vergleichbar ist. Klar überlegen ist keines der Modelle bei spezifischen Anwändungsfällen, nur bei der Effizienz ist R1 deutlich überlegen. Bei OpenAI können auch andere, simplere Modelle über die Schnittstelle verwendet werden, was bei einfacheren Aufgaben sinnvoll sein kann. 
 

10. Wie flexibel sind beide Modelle bei der Anpassung an spezifische Geschäftsanforderungen, z. B. durch Feintuning oder eigene Trainingsdaten? 

Bei OpenAI kann das Modell gar nicht angepasst werden, da es eine proprietäre Lösung ist. Die Open-Source Modelle von DeepSeek können durch jedermann angepasst werden, was aber nicht trivial ist. Beide Modelle können aber natürlich durch Prompts und Kontext mit Anweisungen und Informationen gefüttert werden. 

Kosten und Lizenzmodelle

11. Wie unterscheiden sich die Preismodelle von DeepSeek-R1 und ChatGPT – gibt es kostenfreie Varianten oder Unterschiede in der Abrechnung? 

Die API-Preise für die äquivalenten Modelle R1 und o1 sind enorm unterschiedlich. OpenAPI verlangt ungefähr den 30-fachen Preis von DeepSeek für die gleiche Menge an Tokens.  

Für End-User steht o1 nur in sehr limitierter Form kostenlos zur Verfügung, während R1 momentan noch unlimitiert kostenfrei ist. 

Quelle: Cody, 2025

Ethische und regulatorische Fragen

13. Gibt es Einschränkungen oder Zensurmechanismen bei DeepSeek-R1 im Vergleich zu ChatGPT? Welche Themen oder Inhalte werden unterschiedlich behandelt?

DeepSeek weigert sich, jegliche Fragen zu chinesischer Politik zu beantworten. Dies betrifft die online-Version, lokale Modelle erlauben dies. Bei kritischen Fragen zu chinesischer Politik weigert sich auch das lokale Modell direkt zu antworten, es muss etwas überzeugt werden. Sowohl o1 und R1 weigern sich zum Beispiel auch Wahlempfehlungen auszustellen. Beide Modelle weigern sich unethische oder illegale Anfragen zu beantworten. 

14. Wie gehen beide Modelle mit Falschinformationen oder Halluzinationen um, und gibt es Unterschiede in der Transparenz ihrer Antworten? 

Um dies zu testen, wurden Abfragen nach international eher unbekannten schweizer Politikern gemacht. Wenn DeepSeek ohne Internetsuche verwendet wurde, hat es Fakten zu den Personen einfach erfunden und auch im Denkprozess ist nicht klar, dass es die Personen nicht kennt. ChatGPT ist transparenter und sagt, dass die Personen nicht bekannt sind. 

Zukunftsperspektiven

15. Welches der beiden Modelle wird stärker weiterentwickelt und hat die bessere Roadmap für zukünftige Features? 

Sowohl DeepSeek als auch ChatGPT werden kontinuierlich weiterentwickelt. OpenAI verfolgt mit ChatGPT jedoch eine umfassendere Roadmap, die die Nutzerbasis bis 2025 auf 1 Milliarde erweitern und KI-gestützte "Agenten" sowie eine eigene KI-Suchmaschine einführen soll. Zudem investiert OpenAI in eigene Rechenzentren und strebt Partnerschaften mit Unternehmen wie Apple an, um die Integration von ChatGPT zu fördern.  

DeepSeek hat mit der Veröffentlichung von DeepSeek-R1 ein leistungsstarkes Open-Source-Modell präsentiert, das in Aufgaben wie Mathematik, Programmierung und logischem Denken mit OpenAIs Modellen vergleichbar ist. Das Unternehmen plant, seine allgemeinen Fähigkeiten weiter auszubauen und die Anwendbarkeit auf verschiedene Bereiche zu erweitern.  

Teilen