"Deepseek oder doch Deepfake? Und OpenAI mit o3 Mini"

Shownotes

Quellen & weiterführende Informationen: Eine Auswahl relevanter Artikel, Studien und Berichte zu den besprochenen Themen findest du hier:

https://x.com/Quartr_App/status/1884276836861112592

https://semianalysis.com/2025/01/31/deepseek-debates/

https://thediplomat.com/2025/02/is-chinas-deepseek-using-smuggled-ai-chips-from-singapore/

https://www.greenwichtime.com/news/politics/article/researchers-say-china-s-deepseek-chatbot-is-20148255.php

https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak

https://darioamodei.com/on-deepseek-and-export-controls

https://openrouter.ai/deepseek/deepseek-r1

https://openai.com/api/pricing/

https://de.wikipedia.org/wiki/DeepSeek?utm_source=chatgpt.com

https://www.reuters.com/technology/artificial-intelligence/high-flyer-ai-quant-fund-behind-chinas-deepseek-2025-01-29/?utm_source=chatgpt.com

https://en.wikipedia.org/wiki/Liang_Wenfeng?utm_source=chatgpt.com

https://www.ft.com/content/b3668e7f-ab8d-473a-9358-12421382cca9?utm_source=chatgpt.com

https://nebius.com/blog/posts/deepseek-r1-v3-chinese-ai-new-year-started-early?utm_source=chatgpt.com

https://api-docs.deepseek.com/news/news250120?utm_source=chatgpt.com

https://www.reuters.com/technology/artificial-intelligence/high-flyer-ai-quant-fund-behind-chinas-deepseek-2025-01-29/?utm_source=chatgpt.com

https://en.wikipedia.org/wiki/High-Flyer?utm_source=chatgpt.com

https://www.marketwatch.com/story/this-man-wiped-600-billion-off-nvidias-valuation-by-marrying-quant-trading-with-ai-c170c322?utm_source=chatgpt.com

https://www.benzinga.com/markets/equities/25/01/43293842/bill-ackman-questions-whether-deepseek-ais-hedge-fund-affiliate-profited-from-nvidias-sell-off-a-fortune-could-have-been-made?utm_source=chatgpt.com

https://en.wikipedia.org/wiki/Bill_Ackman?utm_source=chatgpt.com

https://money.cnn.com/2018/03/01/investing/herbalife-bill-ackman-carl-icahn/index.html?utm_source=chatgpt.com

https://fortune.com/2024/02/15/bill-ackman-herbalife-32-percent-stock-fall-psychological-short/?utm_source=chatgpt.com

Transkript anzeigen

Alex: Willkommen, setzt euch auf die Couch und lauscht uns ein wenig. Was ist unsere Absicht? Also, zunächst einmal: Ich bin Alex, ursprünglich Mediziner, aber in AI verliebt. Zusammen mit Fabian – mit dir, Fabian – habe ich ein Unternehmen in den USA gegründet, das sich auf künstliche Intelligenz fokussiert. Vielleicht möchtest du noch etwas sagen? Fabian:Genau, ich bin Fabian, Software-Entwickler, und seit dem Release von ChatGPT bin ich dauerhaft im AI-Game unterwegs. Ich beschäftige mich sehr intensiv mit dem Thema, und gemeinsam bauen wir unsere AI-Company auf. Daher denke ich, dass wir schon über ein gewisses Fachwissen verfügen. Wir haben festgestellt, dass AI-Content in Deutschland oft sehr oberflächlich ist, und möchten deshalb tiefergehenden, deutschsprachigen Content anbieten, der im AI-Space wirklich in die Tiefe geht. Generell muss man sagen, dass relevante AI-Inhalte meist aus dem Englischen stammen. Um dies ein wenig näher zu bringen, haben wir beschlossen, einen AI-Podcast zu starten, der ausführlich und tiefgründig informiert. Alex:„In die Tiefe“ ist also schon ein sehr guter Start, denn in der ersten Folge wollen wir uns schwerpunktmäßig mit Deepseek auseinandersetzen. Es ist ja mittlerweile in aller Munde und hat – nach ChatGPT – als erstes mal dafür gesorgt, dass jeder im deutschsprachigen Raum von Deepseek hört. In fast jedem Haushalt, auch bei mir, kamen Familienmitglieder, die sich bisher kaum mit AI beschäftigt haben, auf den Gedanken: „Hey, hast du schon von Deepseek gehört?“ Es war wirklich spannend zu sehen, welchen Hype das ausgelöst hat. Zwar erscheint Deepseek auf den ersten Blick – weil es Open Source ist und trotz der teilweise vergleichbaren Leistung zu anderen AI-Systemen – zunächst nicht als revolutionär, doch ich war überzeugt: Das wird mein Leben und meinen Alltag nicht grundlegend verändern. Fabian:Aber dann entwickelte sich das Ganze zu einem regelrechten Medienhype. Deepseek erreichte Platz eins in den US-App Stores. Meine Familie fragte mich: „Kennst du schon Deepseek?“ Überall war es in den deutschen Medien präsent, oft sogar begleitet von einer gewissen Panikstimmung, etwa weil die Märkte eingebrochen sind – etwas, das ich nicht kommen sah. Da dachte ich: „Schauen wir mal, was dahintersteckt.“ Aus unserer Perspektive war es fast absurd; wir hatten eher das Gefühl, dass der Hype niemals enden würde, weil es überall nur noch von Deepseek sprach. Wir möchten in dieser Folge den Ursachen auf den Grund gehen und klären, ob es sich um Deepseek oder um einen Deepfake handelt – dazu haben wir einige Punkte vorbereitet. Alex:Vielleicht sollten wir erst einmal klären: Was ist eigentlich Deepseek? Letztlich wurde Deepseek als klassisches LLM gestartet – ähnlich wie ChatGPT, also ein Modell der gleichen Art – und wurde von Lian Wenfeng, geboren 1985 und aus China stammend, gegründet. Lian Wenfeng besitzt einen Bachelor in Elektronischer Informations- und Kommunikationstechnik, man könnte sagen, er kennt sich bestens aus. Er hat zudem ein Unternehmen namens Highflyer, einen Hedgefonds, den er seit 2015 betreibt. Später gründete er Deepseek und lag diese Entwicklung aus seinem Unternehmen aus – mit dem ursprünglichen Ziel, eine AGI zu entwickeln. Zwar haben wir bislang noch keine echte AGI, aber zunächst ein leistungsfähiges LLM, und im Januar wurde dann ein riesiger Hype ausgelöst, als er ein weiteres Modell präsentierte, das ChatGPT in einigen Aspekten ähnelte – das sogenannte Reasoning-Model. Sein Modell R1 kam am 20. Januar heraus. Fabian:Bevor wir näher auf das Modell eingehen, möchte ich kurz etwas zu Lian Wenfeng und seinem Unternehmen Highflyer sagen. Highflyer ist in China ein ziemlich großer Hedgefonds – wir sprechen hier von einem Portfolio im Wert von knapp 14 Milliarden US-Dollar, also keineswegs eine kleine Nuckelbude, sondern ein relevanter Akteur, wie wir im weiteren Verlauf noch einmal kurz anreißen werden. Da Highflyer ein privates Unternehmen ist, werden keine offiziellen Zahlen veröffentlicht – es gibt also keine Quartalsberichte. Doch kommen wir zurück zu Deepseek. Alex:Viele haben sich gefragt, wie die Chinesen das schaffen, da öffentlich kommuniziert wurde, dass das Training lediglich 5,5 Millionen US-Dollar gekostet haben soll. Der Vorgänger von R1 war nämlich Deepseek V3. In der Tech-Community, in der wir uns bewegen, sorgte dieses Modell bereits für einen gewissen Hype – wir haben uns damit beschäftigt und überlegt, ob wir es in unseren Newscast integrieren könnten. Letztlich war dies jedoch nicht der Fall, doch als R1 erschien, war plötzlich überall von Deepseek die Rede. Und 5,5 Millionen – das erscheint wirklich wie ein geringer Betrag. Sollte ein Modell, das in vielen Benchmarks vergleichbare Leistungen wie R1 erbringt, tatsächlich für 5,5 Millionen trainiert worden sein, wäre das ein echter Durchbruch. Fabian:Wir sollten auch mal sagen, was andere Unternehmen dafür ausgeben, um den Unterschied deutlich zu machen, denn es hängt immer davon ab, was man genau einrechnet. Auch bei Deepseek muss zunächst in die Hardware investiert werden. Rechnet man die gesamten Hardwarekosten mit ein, läge der Preis für Deepseek eher bei etwa 1,5 Milliarden US-Dollar. Man könnte aber auch nur die reinen Betriebskosten der Chips betrachten – das ist vermutlich der Trainingspreis, den Deepseek kommuniziert hat, nämlich 5,5 Millionen US-Dollar. Deepseek gab an, dass sie nur eine bestimmte Anzahl von H800-GPUs besaßen, weil sie wegen US-Beschränkungen nicht mehr anschaffen konnten. Dadurch war das Training besonders effizient und günstig. Ein entsprechendes White Paper liegt vor, und es gibt aktuell auch Versuche, diese Zahlen von der Open-Source-Community bei Hugging Face über das Projekt „Open R1“ zu rekonstruieren. Bisher war der Erfolg noch begrenzt, aber es bleibt spannend. Zur Veranschaulichung: Während von einer Seite 5,5 Millionen kommuniziert werden, bringt Fabian auch 1,5 Milliarden ins Spiel – das ist schon eine ganz andere Hausnummer. Alex:Die GPUs, von denen du sprichst, sind letztlich die Nvidia-Chips, auf denen AI-Modelle trainiert werden. Rund 99,9 Prozent der Trainingsprozesse laufen auf Nvidia-Chips, da diese die notwendige Leistung bieten. Besonders erwähnenswert sind dabei die H800-Chips, die zu den besten in diesem Bereich gehören – allerdings unterliegen sie einer US-Exportbeschränkung, sodass sie nicht an China verkauft werden dürfen. Das führt zur Frage, wie Deepseek diese Beschränkung umgangen haben soll, falls die öffentlich gemachten Zahlen nicht stimmen. Es gibt interessante Zahlen: Wenn man sich den Umsatz von Nvidia anschaut und diesen länderspezifisch aufschlüsselt, zeigt sich, dass Singapur mittlerweile 22 Prozent des Nvidia-Umsatzes ausmacht. Singapur ist ein Stadtstaat mit wenigen Rechenzentren; bis 2022 verbot die Regierung sogar weitgehend den Bau von Rechenzentren, da nicht genug Strom zur Verfügung stand. Neue Rechenzentren können nur unter strengen Auflagen gebaut werden. Dies wirft die Frage auf, ob die Nvidia-Chips über Singapur nach China geschmuggelt werden. Dieser Vorwurf wird häufig erhoben – wenn auch ohne offizielle Bestätigung durch Nvidia oder die Behörden in Singapur. Es ist jedenfalls auffällig, dass der Stadtstaat fast ein Viertel des Nvidia-Umsatzes ausmacht. Fabian:Nvidia selbst erklärt, dass viele westliche Kunden, vor allem aus den USA, Filialen in Singapur betreiben und den Kauf über diesen Weg abwickeln, weshalb das in den Umsatzzahlen so ausgewiesen wird. Allerdings hat Nvidia ein Interesse daran, dass der vermeintliche Schmuggel auch weitergeht – denn bricht dieser ein, geht ein erheblicher Umsatz verloren. Alex:Man sieht es auch daran, dass der Kurs nach der Deepseek-Veröffentlichung stark fiel – etwa 17 bis 18 Prozent –, was mehreren Milliarden Dollar an Kapitalverlusten entspricht. Es ist interessant, denn der Kursabsturz scheint nicht vollkommen gerechtfertigt, wenn man bedenkt, dass Deepseek zumindest theoretisch mit Nvidia-Chips arbeitet, was ja wiederum ein Hinweis darauf sein könnte, dass Deepseek tatsächlich wesentlich mehr Hardware eingesetzt hat als offiziell angegeben. Fabian:Genau, einige Analysten gehen sogar davon aus, dass Deepseek rund 50.000 Hopper-Chips besitzt – eine Mischung aus H800, H100 und H20 –, obwohl offiziell von etwa 5.000 gesprochen wurde, was einem Zehnfachen entspricht. Der Wert dieser Chips soll, sofern diese Zahlen stimmen, bei rund 1,3 Milliarden US-Dollar liegen. Wenn man das in die Berechnung einbezieht, wird das Modell schnell teurer – insbesondere wenn man bedenkt, dass der CEO von Entropic auch angab, dass das Pre-Training bei Cloud Free 5 Sonnet nur ein paar dutzend Millionen gekostet haben soll. Deepseek behauptet zwar, dass der Pre-Training-Prozess 5,5 Millionen gekostet habe, aber das deckt nicht die gesamten Kosten ab, da man auch die Hardware berücksichtigen muss. Das ist ein entscheidender Punkt. Fabian (im Weiteren):Bevor wir noch tiefer in die Details einsteigen, komme ich kurz wieder auf Highflyer zurück – den Hedgefonds von Lian Wenfeng, dem Gründer von Deepseek. Es gab die Theorie, dass Highflyer bzw. mit ihm assoziierte Unternehmen vor der Deepseek-Veröffentlichung Nvidia-Aktien „geshortet“ und damit mutmaßlich Milliarden oder zumindest Millionen verdient haben könnten. Warum „mutmaßlich“? Letztlich wäre es Marktmanipulation, denn es gibt einen Unterschied zwischen Insiderhandel und Marktmanipulation. Insiderhandel liegt vor, wenn jemand aufgrund von nicht-öffentlichen Informationen Aktien kauft oder verkauft, während Marktmanipulation darin besteht, andere Marktteilnehmer bewusst zu täuschen, um den Preis künstlich zu beeinflussen – sei es nach oben oder unten. Falls Deepseek tatsächlich falsche Angaben zu den Kosten und der Entwicklung gemacht hat, könnte dies als Marktmanipulation interpretiert werden, was den Nvidia-Kurs um 17 bis 18 Prozent drücken könnte. Wer im Vorfeld auf einen Kursrückgang wettet, kann als Hedgefonds natürlich enorme Gewinne erzielen. Ob dies tatsächlich stattgefunden hat, ist jedoch bislang unklar. Alex:Ein weiterer Hedgefondsgründer aus den USA – Bill Ackman oder Eggman, wie man ihn ausspricht – hat ebenfalls öffentlich spekuliert und sogar den Highflyer-Hedgefonds zur Stellungnahme aufgefordert. Sowohl die chinesischen Behörden als auch der betreffende Hedgefonds haben allerdings bisher keine offiziellen Angaben gemacht. Die chinesischen Regulierungsbehörden ermitteln nämlich nicht proaktiv, sondern erst, wenn der heimische Markt darunter leidet. Highflyer ist ein privates Unternehmen, das keine detaillierten Daten preisgeben muss, sodass es schwer nachvollziehbar ist, ob der Short-Deal und damit eine eventuelle Marktmanipulation tatsächlich stattgefunden haben. Fabian:Ein interessanter Punkt ist zudem, dass Bill Ackman sich darüber beschwerte, dass hier ein Short-Call stattgefunden habe – also die Wette auf einen sinkenden Kurs. Er hatte so etwas schon 2012 selbst ausprobiert, als er versuchte, das Unternehmen Herberlife zu schorten. Damals ging er sogar so weit, das Unternehmen öffentlich zu diskreditieren, was jedoch letztlich zu hohen Verlusten führte und er seine Short-Positionen mit erheblichen Verlusten schließen musste. Alex:Man könnte also vermuten, dass, falls dieser Short-Deal tatsächlich stattgefunden hat, einiges an Geld in die Taschen von Highflyer geflossen sein dürfte. Das ist insofern spannend, als Lian Wenfeng sich in der Folge öffentlich bei seinen Investoren entschuldigte, weil es zu Performanceverlusten von 20 bis 21 Prozent kam – auch wenn es sein könnte, dass er zuvor eine bessere Performance vorweisen konnte. 2021 war an den Börsen ohnehin ein schwieriges Jahr, besonders im Technologiebereich, sodass es unklar bleibt, ob die Investitionen auch in westliche Aktien flossen oder primär in China. Fabian:Lian Wenfeng ist bekannt für sein herausragendes mathematisches Wissen – er wurde schon in der Schulzeit als Genie bezeichnet. Er gründete Highflyer und entwickelte ein eigenes System, das mathematische Modelle mit künstlicher Intelligenz kombiniert, um Investitionsentscheidungen zu treffen, während er selbst nur einen geringen operativen Anteil hat. Sein Unternehmen umfasst mittlerweile ein Portfolio von rund 14 Milliarden US-Dollar – ein nicht zu vernachlässigender Player auf dem Gesamtmarkt. Alex:Interessanterweise soll Deepseek selbst einen Marktwert von etwa zwei Milliarden US-Dollar haben. An der Theorie könnte durchaus etwas dran sein. Es erscheint als eine Win-Win-Situation, bei der eventuell auch die chinesische Regierung involviert ist. Man hat nämlich herausgefunden, dass Deepseek Verbindungen zu China Mobile besitzt, einem chinesischen Staatskonzern, der in gewisser Weise vergleichbar mit der Deutschen Telekom ist. In der Deepseek-Web-App, in der auch R1 verwendet werden kann, fand sich beispielsweise ein Code im Authentifizierungssystem von China Mobile. Bei Tests – etwa aus Nordamerika – konnte zwar zunächst kein Datenaustausch festgestellt werden, aber es ist anzunehmen, dass dieser Code einen Hintergrund hat. Vielleicht werden ab und zu Daten an China Mobile übermittelt, auch wenn das bislang nicht vollständig entschlüsselt werden konnte. Fabian:Zum Thema Sicherheitsbedenken und möglichen staatlichen Eingriffen bei der Datenübertragung: Einige Länder haben sehr schnell reagiert. So hat Italien die App komplett aus dem App Store entfernt, Südkorea, Australien und Taiwan haben Regierungsmitglieder dazu aufgefordert, die App nicht zu nutzen oder die Nutzung sogar generell zu untersagen – auch in Texas gab es entsprechende Hinweise. Die Sorge um Datenlecks ist groß, und es wurden bereits Fälle bekannt, in denen – neben dem Open-Source-Modell – auch Nutzerdaten für kurze Zeit öffentlich zugänglich waren. Recherchen von Witz-Research zeigten, dass persönliche Daten zahlreicher Nutzer, wie sie beispielsweise bei ChatGPT eingegeben werden, frei im Internet verfügbar waren. Deepseek wurde darauf aufmerksam gemacht, und das Problem wurde mittlerweile behoben. Dennoch war es ein erhebliches Datenleck, das nicht unterschätzt werden darf. Alex:Ein weiteres spannendes Thema ist die Rolle von Entropic, einem größeren AI-Anbieter, der sein Modell vorwiegend Geschäftskunden (B2B) anbietet. Der CEO von Entropic, Dario, äußerte, dass sie vermutlich etwa 50.000 Hopper-GPUs besitzen und dass der Pre-Training-Prozess von Cloud Free 5 Sonnet nicht wesentlich teurer gewesen sei als die 5,5 Millionen, die Deepseek kommuniziert. Er sprach von Kosten im Bereich von ein paar dutzend Millionen, also eventuell 50 bis 60 Millionen US-Dollar, und betonte, dass sich die Kosten für AI jährlich um das Vierfache reduzieren sollten. Er meinte außerdem, dass – wenn man die Hardwarekosten berücksichtigt – 5,5 Millionen durchaus realistisch sein könnten, wobei Cloud Free 5 Sonnet mittlerweile bereits sechs bis sieben Monate alt ist. Das bedeutet, dass bei entsprechender Progression der Preiskosten das Training, theoretisch betrachtet, nur um ein Vielfaches teurer wäre. Zugleich vermutet er, dass Deepseek deutlich mehr Chips eingesetzt hat als offiziell kommuniziert wurde. Alex:Ich habe hierzu auch ein Essay in die Shownotes gepackt, das man sich unbedingt einmal durchlesen sollte. Dario meint nämlich, dass es sich bei den offiziellen Angaben von Deepseek um einen Fake handeln könnte – zumindest behaupten das viele Experten, die sich mit der Materie auseinandersetzen. Darüber hinaus gibt es einen starken Verdacht, dass Deepseek vor allem auf Antworten von ChatGPT trainiert wurde, also dass im Kern eine Kopie des Sprachmodells von OpenAI vorliegt, anstatt dass ein komplett eigenständiges Training durchgeführt wurde. Zwar wurde wahrscheinlich doch ein eigenes Training vorgenommen, jedoch auf Basis von ChatGPT. Alex:Im Herbst 2024 gab es von Sicherheitsmitarbeitern bei Microsoft den Hinweis an OpenAI, dass deren API von mutmaßlich Deepseek missbraucht werde. Es wurde berichtet, dass Deepseek versucht habe, über die API Antworten von ChatGPT abzugreifen – was natürlich den Richtlinien von OpenAI widerspricht. Fabian:Kurz zusammengefasst: APIs sind Schnittstellen, über die man eine AI-Anwendung in die eigene Software integrieren kann. Dabei zahlt man pro verwendeten Token. Ein Token entspricht im Durchschnitt etwa drei Vierteln eines Wortes. Das heißt, das Modell sagt jeweils das nächste Token voraus und man rechnet am Ende pro Token ab. Alex:OpenAI hat den Aufremini in ChatGPT integriert – mit den bekannten Limitierungen und auch über die API. Die Kosten dafür belaufen sich auf 1,10 US-Dollar pro 1.000.000 Input-Tokens, 55 US-Dollar pro 1.000.000 Cached Input-Tokens (das gilt, wenn ein Teil der System-Prompts konstant bleibt und gecached wird) sowie 4,40 US-Dollar pro 1.000.000 Output-Tokens. Das ist immer noch deutlich teurer als bei Deepseek, das bei 55 US-Dollar pro 1.000.000 Input-Tokens und 2,19 US-Dollar pro 1.000.000 Output-Tokens liegt – also quasi die Hälfte der Kosten. Fabian:Dabei stellt sich die Frage, warum OpenAI beim Release des Aufremini nicht das Preisniveau von Deepseek und eine entsprechende Leistungssteigerung umgesetzt hat – zumal Microsoft als starker Partner im Hintergrund steht und sicher darauf drängt, dass man die Marktführerschaft demonstriert. Meine Theorie ist, dass Deepseek dieses Preismodell gar nicht nachhaltig halten kann. Es handelt sich hierbei eher um einen Marketing-Stand, denn das Modell ist längst nicht so leichtgewichtig, wie behauptet wird. Die tatsächlichen Inferenzkosten sind erheblich höher, als es die offizielle API-Berechnung suggeriert. Offenbar betreiben sie das Modell zwar auf einigen Servern, doch ist es fast immer überlastet und somit oft nicht verfügbar – was wiederum positive mediale Aufmerksamkeit erzeugt, auch wenn es im praktischen Einsatz zu Einschränkungen führt. Fabian:Zudem handelt es sich bei Deepseek um ein Open-Source-Modell, das von verschiedenen Anbietern selbst gehostet wird. Es gibt spezialisierte Firmen wie Deep-Infra, die solche Modelle betreiben und dabei eine standardisierte API anbieten – sodass man, egal ob Open- oder Closed-Source, mit denselben Schnittstellen arbeiten kann. Alex:Ein wichtiger Punkt ist außerdem, dass die Preise für das R1-Modell bei zuverlässigen Anbietern deutlich höher liegen. Bei Deep-Infra wird das Modell beispielsweise zu 0,75 US-Dollar bzw. 2,40 US-Dollar pro 1.000.000 Tokens angeboten – allerdings mit der Einschränkung eines Context-Limits von 16.000 Tokens statt der vollen 164.000 Tokens, die das Modell theoretisch unterstützt. Zum Beispiel bedeutet ein Input-Kontext von 16.000 Tokens, dass man etwa zehn Seiten eines Buches eingeben kann, während mit 164.000 Tokens sogar ein ganzes Buch möglich wäre. Ähnliches gilt für den Output: Zwar unterstützt das Modell bis zu 164.000 Tokens, doch zuverlässig erhält man oft nur 8.000 Tokens an Ausgabe. Anbieter, die den vollen Umfang anbieten würden, müssten mindestens 7 bis 8 US-Dollar pro 1.000.000 Tokens verlangen – was letztlich teurer wäre als das Angebot von O3 Mini. Und hier wird es richtig interessant: Es scheint, als ob AI mit O3 Mini gar nicht profitabel betrieben werden kann, da die Kosten im Vergleich zu den offiziellen Angaben vielfach höher ausfallen. Vermutlich spielt hier auch die Tatsache mit, dass ein Teil der Rechenleistung von Microsoft gestellt wird, während OpenAI diese zur Verfügung hat. Insgesamt entsteht der Eindruck, dass der Hype um O3 Mini möglicherweise mehr ein Marketing-Stunt ist als ein nachhaltig rentables Produkt. Alex:Zum Thema Token kurz: Ein Token ist das, was ein AI-Modell vorhersagt – nämlich das nächste, am wahrscheinlichsten kommende Token. Im Durchschnitt entspricht ein Token etwa 0,75 Wörtern. Man zahlt also pro Token für die Nutzung der AI. Fabian:Ganz genau. Alex:OpenAI hat also den Aufremini in ChatGPT integriert – inklusive der bekannten Limitierungen – und bietet ihn auch über die API an. Die Preisgestaltung liegt dabei bei 1,10 US-Dollar pro 1.000.000 Input-Tokens, 55 US-Dollar pro 1.000.000 Cached Input-Tokens und 4,40 US-Dollar pro 1.000.000 Output-Tokens. Im Vergleich dazu sind die Preise von Deepseek mit 55 US-Dollar pro 1.000.000 Input-Tokens und 2,19 US-Dollar pro 1.000.000 Output-Tokens wesentlich niedriger – nämlich etwa die Hälfte. Fabian:Hier stellt sich die Frage, warum OpenAI beim Release des Aufremini nicht das gleiche Preisniveau wie Deepseek realisiert hat, zumal sie mit Microsoft einen starken Partner im Rücken haben, der sicherlich darauf drängt, die Marktführerschaft zu demonstrieren. Alex:Meine Theorie lautet, dass Deepseek dieses Preisniveau langfristig gar nicht halten kann. Es handelt sich um einen Marketing-Stand, der nicht den tatsächlichen Inferenzkosten entspricht. Zwar laufen die Modelle auf einigen Servern und man zahlt damit nur einen geringen Betrag, doch ist das System häufig überlastet und oft offline – sodass die tatsächliche Nutzung stark eingeschränkt ist. Somit geht es nicht um den praktischen Einsatz, sondern um die mediale Präsenz. Fabian:Zudem wird Deepseek als Open-Source-Modell auch von externen Anbietern gehostet – Firmen wie Deep-Infra bieten beispielsweise standardisierte APIs an, über die man sowohl Open-Source- als auch Closed-Source-Modelle (wie die von OpenAI) ansteuern kann. Das verschafft einen guten Überblick über den Markt. Alex:Erwähnenswert ist dabei, dass zuverlässige Anbieter für das R1-Modell deutlich höhere Preise verlangen. So bietet Deep-Infra das Modell zwar zu relativ günstigen Preisen an, jedoch mit einem deutlich reduzierten Kontextlimit (16.000 Tokens statt 164.000 Tokens). Das gleiche gilt für den Output: Während das Modell theoretisch 164.000 Tokens verarbeiten könnte, werden meist nur 8.000 Tokens zuverlässig ausgegeben – andernfalls müsste man mindestens 7 bis 8 US-Dollar pro 1.000.000 Tokens zahlen. Damit wäre der Preis letztlich teurer als bei O3 Mini, und zwar um ein Mehrfaches. Es ist fraglich, ob AI mit O3 Mini wirklich profitabel betrieben werden kann – hier scheint es, als würden die Kosten künstlich in die Höhe getrieben, möglicherweise weil ein Teil der Rechenleistung von Microsoft kommt. Es ist daher durchaus denkbar, dass mit O3 Mini vor allem der Hype erzeugt werden soll, ohne dass es wirtschaftlich nachhaltig ist. Alex:Ein weiteres neues Feature von OpenAI ist neben O3 Mini auch Deep Research, das zunächst nur in den USA verfügbar war, mittlerweile aber auch für alle Nutzer ausgerollt wurde – im Rahmen eines Abos für 200 US-Dollar. Außerdem gibt es noch Operator, der – ebenfalls bisher nur in den USA und für Pro-Nutzer – verfügbar ist. Hierzu möchte ich zunächst mit Operator beginnen, denn das stellt momentan eine der größten Enttäuschungen dar. Man kann bereits davon ausgehen, dass 2025 das Jahr der AI-Agents wird. Doch das, was OpenAI mit Operator herausgebracht hat, ist derzeit leider kaum nutzbar, da das System alle 20 Sekunden eine neue Eingabe von dir benötigt. Es darf sich nämlich nicht selbstständig einloggen oder autonom Aktionen durchführen, sondern muss ständig Rückfragen stellen. Das ist offensichtlich nicht auf die Intelligenz des Modells zurückzuführen, sondern darauf, dass OpenAI es stark einschränkt. Somit ist der Operator, der eigentlich einen vollautomatischen, technischen Assistenten darstellen sollte, momentan einfach unbrauchbar. Fabian:Ich habe beispielsweise versucht, mit Operator einen Döner zu bestellen – anstatt dass der Agent den Bestellvorgang eigenständig durchführt, musste ich fünf bis zehn Klicks selbst ausführen. Normalerweise dauert es zwei Minuten, einen Döner zu bestellen; mit Operator vergingen 20 Minuten. Das ist wirklich unpraktisch. Alex:Ich gebe zu, das mag vielleicht etwas kritisch klingen, aber ich kann das nachvollziehen. Operator soll ja ein AI-Agent sein, der deinen Browser steuert und Aufgaben wie das Bestellen eines Döners oder Burgers übernimmt. Doch solange du ständig manuell eingreifen musst, ist das System noch weit davon entfernt, ein vollwertiger Assistent zu sein. Ich bin jedoch optimistisch, dass in naher Zukunft ein Update erscheinen wird, das den Agenten autonom arbeiten lässt – sodass er, ähnlich wie ein menschlicher Mitarbeiter, rund um die Uhr agieren kann, ohne ständig um Bestätigung bitten zu müssen. Fabian:Genau – das wäre ein großer Fortschritt. Bis dahin ist es jedoch noch zu umständlich. Gleichzeitig hat OpenAI auch Deep Research vorgestellt, ein Tool, das zum Beispiel Rechercheaufgaben übernimmt. Du gibst ihm den Auftrag, etwa eine Übersicht über alle AI-Chatbots von 2023 samt Nutzungszahlen und Quartalsergebnissen zu erstellen, und nach fünf bis zehn Minuten – manchmal auch länger – erhältst du eine 27-seitige PDF mit den entsprechenden Informationen. Das ist wirklich beeindruckend. Alex:Dabei zeigt sich allerdings auch ein Problem: Alle Modelle von OpenAI haben einen Wissens-Cutoff, der irgendwann im Jahr 2023 liegt. Das heißt, sie können keine aktuellen Informationen mehr liefern. So kam es bei unserer Recherche zum Thema Deepseek beispielsweise vor, dass R1 mit einem hypothetischen GPT-4 verglichen wurde – das Modell wusste zwar, dass es ähnlich leistungsfähig sei, hatte aber keinen aktuellen Bezug zu GPT-4. Das ist insbesondere für den wissenschaftlichen Einsatz problematisch. Fabian:In der Wissenschaft wird das natürlich zu Einschränkungen führen, doch hoffentlich wird sich das in Zukunft verbessern. Google hat beispielsweise auch ein Deep Research-Tool veröffentlicht, das derzeit im Pro-Abo getestet werden kann und bei dem zumindest die genutzten Quellen ersichtlich sind – etwas, das immer nachzulesen sein sollte. Alex:Noch ein Punkt: In einem Interview erwähnte Sam Altman, dass es sich bei O3 nicht um O3 Mini, sondern um ein Modell handelt, das der allgemeinen künstlichen Intelligenz (AGI) sehr nahekommt – also in gewisser Weise menschlicher agiert. Ob das tatsächlich zutrifft oder ob er sich dabei versprochen hat, bleibt unklar. Es könnte auch sein, dass dies der erste Kontakt mit einem Modell war, das zwar angekündigt, aber noch nicht vollständig verfügbar ist. Fabian:So wie ich das sehe, wird es in den kommenden Wochen und Monaten noch viele Diskussionen und Updates geben. OpenAI hat etwa auf X (ehemals Twitter) angekündigt, dass Deep Research ein Teil des Aufremini sein wird, sodass wir hier sicherlich noch weitere Neuigkeiten erwarten dürfen. Alex:Zusammenfassend lässt sich sagen, dass Deepseek zwar einen enormen Hype ausgelöst hat, das Modell aber offenbar nicht alle Versprechen hinsichtlich Kostenstruktur und Qualität einlösen kann, wie es in den Medien dargestellt wurde. Viele Nutzer sind enttäuscht, weil Deepseek – vor allem über das Web – häufig nicht verfügbar ist. Es stellt sich daher die Frage, ob das Ganze eventuell nur ein Marketing-Stunt war, um beispielsweise Nvidia zu manipulieren oder politischen Druck aufzubauen. Die nächsten Wochen werden zeigen, ob sich diese Vorwürfe bestätigen. Fabian:Jeder, der Interesse hat, kann das Modell einfach selbst testen – egal, ob über Deepseek, ChatGPT oder andere Anbieter. AI ist faszinierend und macht Spaß, egal welches Modell man nutzt. Auch die neuen Reasoning-Modelle, die nun im Rahmen des Aufremini in ChatGPT für Free User verfügbar sind, bieten einen guten Einstieg. Alex:Zum Abschluss noch ein Hinweis: Wir bemühen uns stets, in einer Sprache zu sprechen, die jeden abholt. Manchmal nutzen wir jedoch eine sehr fachspezifische Ausdrucksweise, besonders wenn es um AI geht. Falls ihr dazu Feedback habt, schreibt uns bitte eine E-Mail oder hinterlasst einen Kommentar. Empfiehlt uns weiter, gebt uns einen Daumen hoch oder fünf Sterne – so können wir dazu beitragen, dass das Thema künstliche Intelligenz in Deutschland weiter verbreitet und wir alle für die Zukunft gerüstet sind. Fabian:Thank you. Alex:Thank you. Dann würden wir sagen, bis nächste Woche mit einem weiteren spannenden Thema. In der AI-Welt kann sich gefühlt in kürzester Zeit alles ändern – manchmal scheint es, als wäre ein ganzes Jahr in nur wenigen Monaten vergangen. Es hat mir Spaß gemacht, Alex. Fabian:Auch von meiner Seite – macht’s gut und bis bald. Tschau, tschau.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.