AI News KW 7

Shownotes

📱 KI-WAHNSINN: 200 Mrd. fĂŒr EU-KI, Altmans Stargate & Musks OpenAI-Übernahme?! 🚀 In dieser Folge besprechen wir die wichtigsten KI-News, die die Szene gerade aufrĂŒtteln:

💰 EU pusht KI mit 200 Mrd. € – Gamechanger oder Fehlinvestition?

Ursula von der Leyen verkĂŒndet auf dem Pariser KI-Gipfel eine zusĂ€tzliche Investition von 50 Mrd. € fĂŒr europĂ€ische KI – damit steigt die Gesamtförderung auf 200 Mrd. €. Wichtig: Ein großer Teil soll in Infrastruktur fließen. Ist das klug oder ein Tropfen auf den heißen Stein? Beteiligte Giganten: Airbus, ASML, Siemens, Infineon, Philips, Mistral & Volkswagen schließen sich der „European AI Champions Initiative“ an. Von der Leyen: Europa will eine fĂŒhrende Rolle in der KI spielen – aber ist das realistisch? đŸ€– Mistral launcht „Le Chat“ – Konkurrenz fĂŒr ChatGPT?

Mistral veröffentlicht eine neue Chat-KI. Kann „Le Chat“ OpenAI das Wasser reichen oder bleibt es ein Nischenprodukt? Erste Tests & EindrĂŒcke! đŸ–Œïž LandingAI bringt „Agentic Object Detection“ – wie gut ist es?

Neue KI erkennt Objekte eigenstĂ€ndig & reagiert darauf. Unser Test zeigt: Funktioniert gut, aber noch zu langsam. Der Name? Katastrophe. 🌍 Sam Altman in Japan & Deutschland: Stargate-Projekt fĂŒr Europa?

Altman spricht an der UniversitĂ€t Tokio: „KI wird 2025 der beste Competitive Coder der Welt“. OpenAIs internes O3-Modell rankt in den Top 50 weltweit. Berlin-Talk: AI-Kosten sinken jĂ€hrlich um das 10-fache – belegbar mit GPT-4 vs. O3-Mini. Altman will ein „Stargate-Projekt“ fĂŒr Europa! Eine Mega-KI-Infrastruktur wie in den USA? Open Source bleibt wichtig – doch wie geht OpenAI damit um? Spannende Momente: Studentenproteste wegen Energieverbrauch & OpenAIs NĂ€he zu Trump. Altman fragt: „Wer hĂ€lt sich fĂŒr schlauer als GPT-4?“ → Einige heben die Hand. „Und wer ist schlauer als GPT-5?“ → Kaum jemand traut sich – spannend, weil GPT-5 als unwahrscheinlich galt. 💳 OpenAI ĂŒberlegt, Compute-Nutzung direkt abzurechnen

Altman auf Twitter: „Wir mĂŒssen Wege finden, wie User fĂŒr die genutzte Rechenleistung zahlen.“ Bedeutet das ein komplett neues Preismodell fĂŒr KI-Nutzung? 🔐 „Sign in with OpenAI“ – Login-System bald ĂŒberall?

OpenAI CPO Kevin Weil kĂŒndigt an: Neue Authentifizierungsmethode könnte bald in Apps & Services integriert werden. Kommt ein OpenAI-Ökosystem? đŸ”„ Musk will OpenAI fĂŒr 97,4 Mrd. $ kaufen – WTF?!

Musk-Konsortium bietet fast 100 Mrd. $, um OpenAI zurĂŒckzuholen! Altman kontert mit Humor: „No thank you, but we will buy Twitter for $9.74 billion if you want.“ Was steckt dahinter? OpenAI muss die Non-Profit-Organisation bis 2026 auflösen & in ein For-Profit-Modell ĂŒberfĂŒhren. Bisherige Annahme: Die Non-Profit bekommt 25 % der Anteile an der neuen Firma. Musks Angebot könnte das Ă€ndern: Falls OpenAI die Non-Profit jetzt mit 97,4 Mrd. $ bewerten muss, könnte sie statt 25 % ganze 33 % der Anteile an der neuen OpenAI bekommen. Das könnte OpenAI Milliarden kosten – oder sogar zu einer Klage fĂŒhren! đŸ’„ BREAKING: WĂ€hrend der Folge kĂŒndigt Sam Altman ChatGPT-4.5 & ChatGPT-5 auf X an! Live-Reaktion! Wir besprechen, was das bedeutet & wie groß der Sprung sein könnte. Was erwartet uns mit ChatGPT-5? Kommt 4.5 schon bald als Übergangsversion?

đŸŽ™ïž All das und mehr in dieser Folge! KI-Gamechanger oder nur heiße Luft? Wir analysieren die Lage & bringen euch alle HintergrĂŒnde!

Quellen:

https://x.com/sama/status/1889755723078443244

https://chat.mistral.ai/chat, https://mistral.ai/en/news/all-new-le-chat

https://x.com/andrewyng/status/1887533627275419690?s=46, https://landing.ai/agentic-object-detection

https://www.reuters.com/technology/artificial-intelligence/eus-ai-push-get-50-bln-euro-boost-eus-von-der-leyen-says-2025-02-11/?utm_source=chatgpt.com

https://www.reuters.com/technology/artificial-intelligence/quotes-eu-chief-von-der-leyens-ai-speech-paris-summit-2025-02-11/?utm_source=chatgpt.com

https://www.theguardian.com/world/2025/jan/29/eu-launches-simplification-agenda-in-effort-to-keep-up-with-us-and-china?utm_source=chatgpt.com

https://x.com/tsarnick/status/1888111042301211084

https://www.bifold.berlin/news-events/news/view/news-detail/the-age-of-ai-sam-altman-and-experts-discuss-the-future-of-artificial-intelligence?utm_source=chatgpt.com

https://www.businessinsider.com/sam-altman-cost-using-ai-drop-10-times-every-year-2025-2?utm_source=chatgpt.com

https://www.binance.com/sk/square/post/20058751499450?utm_source=chatgpt.com

https://www.tagesspiegel.de/berlin/chatgpt-chef-sam-altman-an-der-berliner-tu-studierende-planen-protest-vor-unigebaude-13155742.html?utm_source=chatgpt.com

https://x.com/sama/status/1889679681047482730

https://x.com/kevinweil/status/1889723781393829981

https://www.wsj.com/tech/elon-musk-openai-bid-4af12827?st=fYE4Jc&reflink=article_whatsapp_share

https://www.wsj.com/tech/ai/musks-97-4-billion-openai-bid-piles-pressure-on-altman-f6749e6c

https://x.com/sama/status/1889059531625464090

Transkript anzeigen

Alex 00:00So, aus unserer Perspektive wĂŒrde ich mal sagen: Einen wunderschönen guten Abend in die Runde. Wir nehmen die Folge nĂ€mlich am 12. Februar auf – das ist Kalenderwoche 7, unsere erste AINews-Folge. Und wir mĂŒssen sagen, die Woche war einiges los. Wir hatten generell ja den AIGipfel, der ja auch in Paris stattfand – aus EUSicht. Und die News haben sich so ein bisschen ĂŒberschlagen, sodass wir hingegangen sind und echt einiges aussortiert haben, weil die Folge nicht zu lang werden sollte – die AINews sollen schön knackig bleiben.Und ich wĂŒrde auch gleich mit dem ersten Thema starten: Mistral hat „Le Chat“ eröffnet. Das ist sozusagen das französische Pendant zu ChatGPT – pardon, oder ein Equivalent. Das heißt, wir haben hier ein klassisches LLM, das wir als App nutzen können, und deren App heißt jetzt Le Chat. Die haben wir auch gleich ausprobiert – sie ist grundsĂ€tzlich wirklich gar nicht schlecht, muss ich sagen. Sie ist zumindest sehr, sehr schnell. Aus meiner Perspektive ist sie aber nicht ganz auf dem Niveau, das wir von anderen AIAgents – meine GĂŒte – von anderen Apps kennen.Im SchĂ€rfpunkt nutze ich aber auch gerne ChatGPT und Antrophic. ChatGPT ist deutlich besser als Antrophic – aber das LLM ist nicht besser. Was aber ganz genial ist: Wir haben die Images von Black Forest Labs. Das ist Flux, also das Model, das aus dem Schwarzwald kommt. Und das ist mit Abstand, wĂŒrde ich sagen, das beste PictureModel, das wir derzeit am Markt finden können. Es ist bei Le Chat integriert und macht die Sache tatsĂ€chlich ziemlich attraktiv.Mir ist außerdem aufgefallen: Die Antworten kommen ultraschnell – gefĂŒhlt ohne eine Sekunde Nachdenken. Kaum hat man auf „Absenden“ geklickt, steht in derselben Millisekunde die Antwort. Das fand ich schon wieder ganz cool. Ja, das dahinterliegende Model ist mit Sicherheit eines der schnellsten – wenn auch vor allem deshalb, weil es recht klein ist. Wenn man da ein bisschen in die Tiefe geht, merkt man schon den Unterschied zu den aktuellen stateoftheart TextModels.

Fabian 03:12Aber mit Flux integriert ist das echt cool – man muss sich nur registrieren, braucht kein Abo, um Flux zu nutzen. Von daher sollte man sich das mal ansehen. Es ist auch ein bisschen viral gegangen – zumindest in Europa: In Frankreich war es auf Platz 1 im App Store. Gut fĂŒr Mistral, um mal ein bisschen Aufmerksamkeit zu bekommen. Vor allem, ich sag mal, aus europĂ€ischer Sicht: Das ist zurzeit das einzige wirklich ernstzunehmende Unternehmen, das hier existiert; alles andere wandert ab oder wird gleich in den Staaten aufgebaut. Also mit Mistral ist der Weg vielleicht in die richtige Richtung.Wie findest du den Namen „Le Chat“? Französisch – weißt du, ich weiß nicht, ob das der passende Name fĂŒr eine App ist, aber ich glaube, den kann man schon bringen. Zugegeben, aus internationaler Sicht fand ich ihn etwas katastrophal, aber die meisten klingen Ă€hnlich.Und ĂŒbrigens: Auch ChatGPT – die lĂ€uft nicht immer rund – oder Antrophic mit Cloud: Die heißen doch auch nur Antrophic – nee, Cloud, genau – oder Gemini, ich weiß nicht. Die Namensgebung ist bei allen nicht wirklich gelungen.Ich wĂŒrde sagen, die Namensgebung ist sekundĂ€r. Und die Franzosen – mit ihrem Nationalstolz – freuen sich doch, dass der Name auch französisch ist. Übrigens wurde Mistral von zwei ExMitarbeitern von Google DeepMind und Meta AI gegrĂŒndet. Das ist vielleicht ganz interessant, denn da stecken durchaus kompetente Leute dahinter, und es ist schön fĂŒr Europa, so eine Firma zu haben – in Deutschland haben wir das bisher leider nicht.Flux kommt aus dem Schwarzwald – also relativ deutsch – aber leider ist es nicht hier geblieben. Naja, das stimmt nicht ganz: Zwar sitzen sie im Schwarzwald und entwickeln dort, aber die Company dahinter sitzt leider in den USA. Das kenne ich von irgendwoher – können wir beide auch ein Lied davon singen.

Alex 06:05Jedenfalls war das auf jeden Fall schon eine richtig coole Sache, mit der die Woche gestartet wurde. Und dann hatten wir auch noch etwas sehr Spannendes bei X gesehen mit Landing AI: Da gibt es einen agentic Object Detection Agent. Also, technisch gesehen handelt es sich um ein Model – wieder so ein Buzzword – das „agentic Object Detection“ betreibt. Auf der Website steht dann noch was von „reasoningbased“. Na ja, alles, was gerade im Trend liegt – das hat mich, ehrlich gesagt, sogar ein bisschen abgeschreckt.

Fabian 06:48Aber ich habe es nochmal ausprobiert – und es funktioniert ganz gut. Du kannst dort ein Bild hochladen und zum Beispiel, wenn du ein Bild mit mehreren Personen hochlĂ€dst, dann sagst du: „Such mir den mit dem gelben TShirt.“ Und das Model findet dann wirklich zuverlĂ€ssig die Person mit dem gelben TShirt. Ich war schon sehr ĂŒberrascht, dass das gut klappt.Zugegeben: Es ist etwas langsam, und mir fehlen persönlich noch konkrete UseCases – jedenfalls ist mir spontan keiner eingefallen. Aber es gibt bestimmt Leute, die dafĂŒr den passenden UseCase haben. Es ist auch schön zu sehen, dass nicht nur Big Tech, sondern auch große KIStartups wie OpenAI – was ja eigentlich auch zu Big Tech zĂ€hlt – wieder neue Innovationen bringen.

Fabian 07:32Der Name ist ĂŒbrigens eine Katastrophe – da bin ich total bei dir. Vielleicht war es der Versuch, SEOoptimiert zu sein, damit man bei jeder GoogleSuche gefunden wird – der verzweifelte Versuch quasi.Den passenden „Newscase“ habe ich auch noch nicht so richtig gefunden – aber bestimmt gibt es Leute, die genau diesen UseCase haben. Ich hatte bei XR gesehen, dass jemand in einem Bild die Erdbeeren gezĂ€hlt hat – ich glaube, es war sogar der GrĂŒnder selbst – und das hat super funktioniert, auch wenn nicht ganz reife Erdbeeren mitgezĂ€hlt wurden.Also: Falls jemand den passenden UseCase dazu hat, hier ist LendingAI mit agentic Object Detection.Was ist dein Name? 
 Aber auf jeden Fall wurde das neu vorgestellt und funktioniert 1a, muss man echt sagen – auch wenn man im ersten Moment etwas skeptisch ist.Ich denke, da wird sich mit der Zeit ein UseCase herauskristallisieren, und es ist schön zu sehen, dass es auch Startups gibt – abseits der großen Player –, die etwas Innovatives auf die Beine stellen.

Alex 08:20Auf jeden Fall. Und ich glaube, das ist auch ein StĂŒck weit die Zukunft: Viele kleine Entwickler werden jetzt beginnen, UseCases zu entdecken und dann passende Apps oder AILösungen zu bauen.Was heute passiert – und gestern noch nicht – ist: Ursula von der Leyen hat am 11. Februar, also quasi gestern, beim AIGipfel nochmals betont, wie wichtig AI ist. Offenbar ist das in der EU angekommen, dass man ohne AI nicht mehr zurechtkommt, und man will in der EU eine Gesamtinvestition von 200 Mrd. Euro aufbauen bzw. investieren.Ich bin da etwas zwiegespalten – es ist ja auch ein StĂŒck Infrastruktur dabei, was grundsĂ€tzlich gut ist. Zudem machen namhafte Firmen wie Airbus, Siemens, Philips und – wie gerade erwĂ€hnt – Mistral mit, was den Wunsch nach einer europĂ€ischen AIAufholjagd untermauert. Ursula von der Leyen betonte die europĂ€ische FĂŒhrungsrolle in AI und ist ĂŒberzeugt, dass der weltweite Wettlauf in der AIFĂŒhrung noch offen ist.Ich muss sagen, das ist Ansichtssache. Was uns in der EU wirklich helfen wĂŒrde, ist, die Regulierungen zu lockern. Dann hĂ€tten wir Unternehmen, die auch in Deutschland bleiben wĂŒrden – statt im Schwarzwald das beste Vision bzw. PictureModel zu entwickeln und dann in den USA ansĂ€ssig zu sein. WĂŒrden die EU und Deutschland nicht so eine Regulierungswut an den Tag legen, blieben sie vielleicht hier.Ich finde, das ist schon ein richtiger Stoß in die richtige Richtung: AI ist wichtig, und man sollte ihr nicht von vornherein negativ gegenĂŒberstehen. Aber ich habe das GefĂŒhl, wir rennen trotzdem – obwohl wir erkannt haben, dass AI wichtig ist – irgendwie in die falsche Richtung. Schau dir mal die Firmen an, die da beteiligt sind: Airbus, Siemens, Philips – und in den USA? Welche Unternehmen schaffen dort echte Innovationen im KISektor? Letztlich ist es ein OpenAIProjekt, bei dem Microsoft reininvestiert hat. Es handelt sich also um Startups, und das einzige echte Startup, das ich hier sehe, ist Mistral.Und was wir auch sagen mĂŒssen: Wir haben halt auch nicht Microsoft im Nacken.OpenAI hat den riesigen Vorteil, dass sie den Nutzerzugang mit ChatGPT besitzen – ServerkapazitĂ€ten en masse. Das verschafft ihnen einen klaren Vorteil.

Fabian 10:10Also, wer könnte ein Unternehmen wie Mistral – als grĂ¶ĂŸtes deutsches bzw. europĂ€isches Tech-Unternehmen – vernĂŒnftig finanzieren? Letztlich ist SAP ja so etwas in dieser GrĂ¶ĂŸenordnung: Wenn jetzt die neue OpenAIBewertung ĂŒber Softbank wirklich so durchgeht, ist SAP nur etwa 10 % grĂ¶ĂŸer als OpenAI. Uns fehlt es mittlerweile einfach an Substanz in diesem Sektor.(Kurze Pause)Wir machen mal kurz eine Pause – ich muss kurz zu meiner Tochter.(kurzer Zwischenruf, Unterbrechung)Oh, oha, what the fuck – weeks, months, oh mein Gott, oh mein Gott, die Welt geht unter.So, ganz kurz: Sorry, hallo?Sorry erst mal – aber in dem Moment hab’ ich oben kurz gecheckt, was bei X abgeht, und dann kamen die BT4 und 5Drops.Oh, you're good.Ich musste kurz hoch – meine kleine Tochter ist wach geworden und hat nach mir gerufen. Ich hab mir natĂŒrlich die Zeit genommen, und als sie dann eingeschlafen ist, hab’ ich nebenbei noch mal aufs Handy geguckt – wollte eigentlich kurz Fabian schreiben, aber dann auch schauen, was es Neues gibt.TatsĂ€chlich kam in genau diesem Moment Sam Altman auf die Idee, GPT45 und GPT5 zu droppen. Es ist noch nicht draußen, aber es wurde angekĂŒndigt – und das ist unnormal geil.Er schreibt da, dass es fĂŒr uns Nutzer genauso nervig ist, dass man mittlerweile in ChatGPT tausende Models zur Auswahl hat. Du weißt gar nicht, was du jetzt nutzen sollst: O1 Pro oder O3 Mini High oder vielleicht 4O? Gerade die Casual-Nutzer – und bei ChatGPT gibt es bestimmt viele – wissen gar nicht, was da abgeht.Die sind sehr ĂŒberfordert, und das will OpenAI jetzt angehen. Also, sie sprechen von GPT45 als Zwischenschritt und am Ende von GPT5 – dem letzten Model von OpenAI in ChatGPT, das alles umfassen soll. Wenn du dann GPT5 auswĂ€hlst, entscheidet OpenAI wohl, ob du eine Antwort von O3, 4O oder – keine Ahnung – vielleicht sogar von 3.5 bekommst, um Kosten zu sparen bei einer simplen Anfrage wie „Hallo, wie geht’s?“Das entscheidet dann wohl OpenAI. Sam schrieb in einem Kommentar, dass das in den nĂ€chsten Wochen bis Monaten erscheinen soll und O3 nicht separat released wird – das wird Teil dieser GPT45/GPT5Ära sein.Ich schĂ€tze, das wird sich bei GPT5 vor allem wiederfinden. Ich stelle mir GPT5 fast wie einen Router vor, der genau das filtert, was du gesagt hast: Brauche ich nur eine kurze Antwort oder ein komplettes ReasoningModel?Da gab es ja auch einige absurde BeitrĂ€ge auf X, wo Leute mit O1 Pro oder O3 Mini High ein CodingProblem lösten, das sie allein nicht geschafft hĂ€tten. Das Model hat es auf Anhieb gelöst – und danach hat der User sich bedankt, wobei das Model erst anderthalb Minuten nachgedacht hat, bevor es einfach sagte: „Gern geschehen.“Ich glaube, genau fĂŒr so etwas braucht man jetzt diesen Router – und es ist cool, dass das kommt.Außerdem wurde gesagt, dass sie das Kostenmodell anpassen werden: Als FreeUser hast du einen limitierten Bereich, als PlusUser bekommst du dann eine gesteigerte Intelligenz – aktuell kostet das 200 Dollar. Wer weiß, was da noch kommt, sodass du quasi Zugriff auf die „geballte Macht“ hast.Wie sich das dann genau gestaltet, werden wir ja noch erfahren. Im Grunde war das aber nur ein XPost von Sam Altman.Ich finde es auch ganz cool, weil es – in gewisser Weise – zum Thema in Tokio passt.(Übergang – die Überleitung war etwas schnell)Er hat außerdem geschrieben, dass die Models kĂŒnftig auch VoiceFeatures enthalten werden, dass es eine CanvasFunktion in ChatGPT geben soll (die echt cool ist), sowie Search und Deep Research – und es soll noch mehr kommen.Ich hatte vor einigen Wochen schon im Privaten angedeutet, dass ich glaube, dass dieser Schritt sinnvoll ist – schließlich ist es auch unsinnig, wenn ich „Over on Pro, Hallo“ schreibe und das Model erst zwei Minuten braucht, um „Hallo“ zu antworten. Irgendwas lĂ€uft da halt falsch – vor allem, weil OpenAI im Hintergrund wahrscheinlich fĂŒr diese verzögerte Antwort 50 Cent bezahlt hat.Das ist schon ein logischer Schritt.Ich frage mich jetzt: Was macht die Konkurrenz? OpenAI wird das auch in der API einfĂŒhren – das steht hier nĂ€mlich auch drin, also nicht nur fĂŒr ChatGPT, sondern auch fĂŒr Unternehmenskunden, die die API nutzen.Da bleibt spannend, ob das nahtlos funktioniert – denn Unternehmenskunden haben oft sehr spezielle UseCases, bei denen der Prompt je nach Model angepasst werden muss, weil sich die Modelle unterschiedlich verhalten und verschieden gut auf Prompts reagieren.Funktioniert dieser Wechsel in der API ĂŒberhaupt so, dass Unternehmen das weiterhin vernĂŒnftig nutzen können? Ich denke schon – sonst wĂŒrde OpenAI das nicht machen.Man könnte auch fragen: Ist das ĂŒberhaupt noch OpenAIAbsicht? Meiner Ansicht nach – nee, eben nicht. ChatGPT ist irgendwie ihr Hauptprodukt; sie agieren fast als SoftwareasaServiceCompany. Aber das wird sich bestimmt noch weiterentwickeln.

Fabian 14:15Nur, was macht denn die Konkurrenz? Glaubst du, die werden da nochmal draufkommen? Beim letzten Mal hat sich die Konkurrenz ja gegenseitig etwas ĂŒberbieten wollen – da erwarte ich natĂŒrlich eine Reaktion.Man muss einfach sagen: OpenAI hat es geschafft, ein großartiges UserInterface fĂŒr eine simple App zu bauen, sodass der normale Nutzer – wie meine Wenigkeit – das Ding aufmacht und sofort weiß, was zu tun ist. Das haben nicht alle so hinbekommen.Ich wĂŒrde sagen, das ist schon echt – auch wenn „Alleinstellungsmerkmal“ jetzt ĂŒbertrieben klingt – aber eben OpenAIs Riesenvorteil: Sie haben eine unfassbar gute App. Egal, ob es um die SprachfunktionalitĂ€t geht – also darum, dass die AI spricht und auch meine Sprache versteht – oder um das multimodale System, das sie in der App etabliert haben: Alles ist einfach grandios.Wenn sie es schaffen, die gute AppStruktur so umzubauen, dass im Hintergrund GPT5 gut lĂ€uft und dieser „Router“ die Anfragen optimal steuert – sodass alles, was wir bereits nutzen, quasi noch besser auf uns zugeschnitten wird, weil es von unserem Nutzungsverhalten lernt – dann ist das, glaube ich, eine richtig coole Sache.Und wenn man etwas ganz Spezielles braucht, kann man – wie heute – einfach mit einem Prompt arbeiten, der etwa sagt: „Nimm dir fĂŒr diese Antwort bitte Zeit“ oder „Denk ĂŒber das Problem nach“ – oder sogar: „Nutze fĂŒr diese Antwort ein ReasoningModel.“Ich denke, so etwas kann man immer wieder machen, falls es mal hakt.Die Grundfrage, die sich stellt: Wir gehen ja alle davon aus, dass AI die Welt verĂ€ndern wird – mehr als nur ein bisschen ChatGPT, womit Programmierer produktiver werden. Am Ende muss doch jedes Unternehmen mit AI arbeiten und das in seine Software integrieren, um effizienter zu werden.Auch im privaten Bereich wird sich das irgendwann durchsetzen.Ich frage mich dann aber: Wird das dann ĂŒberhaupt noch OpenAI sein? Wird das ein „Enforpic“ sein? Oder bedeutet der Schritt von OpenAI, sich mehr auf ChatGPT zu konzentrieren – dass sie den AIRace letztlich nicht gewinnen können, weil irgendwann andere wie Deepseek oder andere OpenSourceKonkurrenten aufholen?Du investierst in Forschung, bringst Innovation – und innerhalb von zwei Wochen wird es kopiert. Dann bleibt bei Unternehmenskunden kein Spielraum, weil es nie Margen gibt, sondern nur höhere Ausgaben. Wird die Welt letztlich auf OpenSourceAI basieren und OpenAI am Ende nur ein Softwareunternehmen sein – ebenso wie Enforpic?Das ist schon die Frage, ob das ursprĂŒngliche GeschĂ€ftsmodell ĂŒberhaupt noch Bestand haben kann.Ich glaube aber, dass es in gewisser Weise noch etabliert bleiben wird – so haben wir es bisher wahrgenommen. Wir hatten ja auch schon mal ĂŒber die kulturelle AI gesprochen: Die Modelle aus China werden eben anders funktionieren als westliche aus den USA, und Mistral – den wir gerade erwĂ€hnt haben – arbeitet auch anders als, sagen wir, Antrophic.Ich glaube, wir werden mehr OpenSource erleben, weil sich das einfach gut kopieren lĂ€sst. Aber ich wĂŒrde mich nicht wundern, wenn es trotzdem unterschiedlich gute FineTunings bei den einzelnen Anbietern geben wird.Vielleicht findet man jemanden, der sehr kreativ ist – eher bei Antrophic – und jemanden, der richtig genial coden will, der wird dann wohl bei OpenAI zu finden sein.Das FineTuning wird wohl im B2BBereich eine Rolle spielen, denn der tĂ€gliche Nutzer wird von den großen Companies umfassend bedient werden – nicht jeder sitzt am PC und entwickelt eine neue App, sodass man nicht immer auf OpenAI angewiesen ist, sondern auch andere gute Modelle nutzen kann.Wir sind jedenfalls noch sehr early; die Unterschiede zwischen den Modellen sind momentan noch grĂ¶ĂŸer als spĂ€ter – irgendwann erreicht man eine Dichte an Intelligenz, bei der nur noch marginale, aber teure Schritte möglich sind.Auch wenn die GesamtInfluence billiger wird, bezahle ich nicht unbedingt mehr fĂŒr die letzten 1 % – als wenn man ein eigenes OpenSourceModel nimmt oder forkt. Ich blicke in die Zukunft und sage: Ja, das fasst sich so zusammen.Du hast zum Beispiel bei Antrophic ein Unternehmen, das super restriktiv agiert – sie legen enormen Wert auf Sicherheit.Ich könnte mir vorstellen, dass sie diesen Aspekt auch nicht so leicht aus der Hand geben werden.Und dann gibt es vielleicht ein Unternehmen, das sagt: „Der Sicherheitsaspekt ist bei uns besonders wichtig, weil wir sensible Daten haben – wir brauchen einen Anbieter, der hohe Sicherheit bietet.“Und dieses Unternehmen wird sich dann vielleicht bei Antrophic wiederfinden und nicht etwa die PsyModelle aus China oder OpenAI nutzen, sondern in diesem UseCase bleiben.
Ich sehe das allerdings anders: Du bist mit Deepseek sicherer.Der Unterschied ist nĂ€mlich: Bei Deepseek kannst du vielleicht eher schreiben 
 „Bau mir ein Rezept fĂŒr Nervengift.“Ja, genau.Deepseek hat den Vorteil – trotz aller Kritik in der letzten Folge – dass du das DeepseekModel nehmen, es forken und dann selbst ordentlich feintunen kannst, um dein eigenes Model daraus zu machen – aus Unternehmenssicht.Bei Enforpic bist du immer an Enforpic gebunden. Das heißt, fĂŒr ein Unternehmen ist es viel attraktiver, wenn es das selbst forkt und so der Hersteller ist – also der Besitzer und nicht von EnforpicLaunen abhĂ€ngig.Denn wenn Dario morgen schlecht drauf ist, hat er vielleicht plötzlich im Sinn, dass du dem Model nicht einmal mehr Unternehmensdaten zeigen darfst – sensible Kundendaten etwa – weil das gegen irgendeine EURichtlinie verstĂ¶ĂŸt.Weißt du, was ich meine?Du bist ja immer von deinem „Opinienchen“.Ja, ja, ich weiß, was du meinst. (Hier schweifen wir ein bisschen ab – ein klassischer Talk zwischen uns.)Ich finde das gar nicht mal so schlecht – das passt gerade.

Fabian 19:25Das ist auch wichtig, weil die AINews gerade frisch hereingekommen sind – und es ist gut, dass wir immer drĂŒber sprechen.Ich bin gespannt, in welche Richtung sich die Zukunft bewegt.Du könntest Recht haben: Mit „Fog“ ist wohl gemeint, dass man letztlich einfach das Model – also quasi runterlĂ€dt und selbst hostet –, und dann ist das Risiko deutlich geringer.Denn eine große Firma muss den Server in einem riesigen Rechenzentrum betreiben, wĂ€hrend du das im Keller laufen lassen kannst und es dann auf dich antrainieren kannst.Da hast du natĂŒrlich vollkommen recht: Volkswagen könnte so etwa Deepseek perfekt auf seine Autos ausrichten – was natĂŒrlich ziemlich praktisch wĂ€re.FĂŒnf Jahre – das ist unfassbar lange in der AIEntwicklung.Ich bin da echt gespannt.Ich tue mich ein bisschen schwer, dir zu widersprechen, weil du in der Vergangenheit oft genau ins Schwarze getroffen hast.Du kennst ja meine Hypothese – darĂŒber haben wir vor ein paar Wochen schon gesprochen.Ich glaube, OpenAI hat den großen Vorteil: Sie haben den Nutzerzugang mit ChatGPT.Deswegen sind sie auch deutlich mehr wert als Enforpic und auch Google.Google hat zwar einen noch grĂ¶ĂŸeren Nutzerzugang, aber die kriegen es einfach nicht gebacken – Google ist unfĂ€hig, die kriegen gar nichts mehr hin.Ich glaube auch nicht mehr, dass das was wird.Und Enforpic hat einfach das Problem, dass sie keinen guten Nutzerzugang haben.Meine Prediction ist, dass Enforpic von Apple gekauft wird – das wĂŒrde ich sehr begrĂŒĂŸen, denn Apple passt auch irgendwie, und die beiden wĂŒrden sich als Unternehmen gut ergĂ€nzen.

Alex 22:05Aber lass uns weitermachen, denn jetzt hatten wir auch schon ĂŒber einen Shop und ĂŒber einen Erdbeermarkt gesprochen.Es passt ĂŒbrigens richtig gut, denn Sam Altman war in Tokio und sagte, dass AI im Jahr 2025 – also noch dieses Jahr – weltweit der beste Coder werden wird, also der beste Programmierer.Das ist insofern beeindruckend, weil jeder das Ding in der Tasche hat und jeder Mensch plötzlich in der Lage ist, der weltbeste Programmierer zu sein.Da gehört natĂŒrlich einiges dazu – mehr als nur ein bisschen Code.Genauer gesagt sprach er von den besten „Competitive Codern“. Es gibt dazu eine Rangliste, und er meinte, dass sie auf Platz 1 landen.Er sagte auch, dass ihr internes Model in den Top 50 rankt – und das kann eigentlich nur „OffReay“ sein. (Hier bin ich mir unsicher, was genau gemeint ist, siehe Probleme unten.)Vielleicht meinte er aber auch, dass ihr internes Model – das letztlich auch ein Mix aus GPT5 und weiteren Komponenten ist – in den Top 50 rangiert.Wir haben jetzt frische neue Erkenntnisse, und es ist sehr interessant.Ohne AI kortet man nĂ€mlich gar nichts mehr.Ich finde jeden, der AI nicht vernĂŒnftig nutzt, irgendwie verrĂŒckt – ebenso Leute, die noch mit der IDE „Cursor“ coden.Cursor ist ja so etwas wie Visual Studio, nur mit integrierter AI.Das Problem ist aber: Das beste Model in Cursor ist CloudFree 5 Sonnet – und sorry, das ist sieben Monate alt und nicht mehr stateoftheart im Coding, schon gar nicht mehr seit O1 Preview oder O1 Pro, geschweige denn seit O3 Mini High.Und man kann dort – ich glaube, per UpgradeBoost – zehn Anfragen an O1 Mini im Monat stellen.Ich verstehe nicht, wie Leute das noch nutzen können – da geht Effizienz verloren bei denen, die es eigentlich besser wissen mĂŒssten.Und wer ganz ohne AI codet, der sollte meiner Meinung nach gekĂŒndigt werden – so sehe ich das.Das finde ich total verrĂŒckt.Du hast ja auch deine eigene Firma in Deutschland und meintest mal, dass Aufgaben, fĂŒr die du sonst zwei Wochen gebraucht hast, jetzt an einem Tag erledigt werden – dank O1 Pro, jedenfalls in deiner Welt.Es ist schon unglaublich, dass eine Programmieraufgabe, die vorher eine Woche dauerte, sich jetzt auf einen Tag reduzieren lĂ€sst.Das ist eine geisteskranke, aber dringend benötigte Entwicklung in Sachen ProduktivitĂ€t.

Fabian 25:00Also, das ist eine richtig gute Entwicklung – und das wird langfristig sicher auch den Mangel an SoftwareEntwicklern lindern.Irgendwann werden wir SoftwareEntwickler wahrscheinlich durch Agenten ersetzen – und dann sind wir halt die QualityPrĂŒfer, bis uns in diesem Bereich irgendwann auch ein Agent ablöst.Oder man fokussiert sich dann darauf, gutes PromptEngineering zu betreiben bzw. die AIAgents effektiv zu nutzen – dann ist man im Unternehmen wieder gefragt.Oder man muss letztlich nur noch Ideen einbringen, denn das wird fĂŒr AI immer schwieriger werden: Je leistungsfĂ€higer die Modelle, desto unkreativer werden sie.Schau dir zum Beispiel O3 Mini und O1 an – die haben kaum noch KreativitĂ€t, sie brechen alles nur noch auf Fakten herunter.Das merkt man auch daran, wie sie schreiben.FĂŒr Wissenschaft und Coding ist das zwar super, aber in kreativen Bereichen weniger.GPT4 war da deutlich weiter, was KreativitĂ€t angeht, und CloudFree 5 Sonnet ist zumindest noch kreativ – auch wenn es schon sieben Monate alt ist.Aber man muss sich fragen, was von Enforpic kommt.Man könnte fast sagen: Je schlauer, desto weniger Sinn macht es – das passt doch perfekt zu dem, was ich sagen wollte.Genau: Enttropik und ich passen so gut zusammen, weil wir beide sehr kreativ sind – was im RĂŒckblick auch irgendwie bedeutet, dass wir gleichzeitig manchmal ziemlich unsinnig sind.Aber da muss ja auch jemand sein.

Alex 27:10Hast du das selber erlebt?Ja, aber der gute Sam, mit dem wir per Du sind – der war nicht nur in Tokio, sondern ist auch nach Berlin geflogen. Und da haben wir uns in Deutschland wieder von unserer besten Seite gezeigt.GrundsĂ€tzlich war da riesiges Interesse im Audimax – da passen knapp 1200 Leute rein. Die waren voll, und weitere 3000 haben sich auf die Warteliste gesetzt, wĂ€hrend parallel 4000 Leute den Livestream verfolgt haben.Ich finde, das ist echt nicht wenig – vor allem, wenn man bedenkt, dass AI hier noch nicht in aller Munde ist.Man muss aber sagen: Wir haben uns auf eine gewisse Art wieder von unserer besten Seite gezeigt.Kommen wir jetzt erst einmal zu den positiven Sachen, und danach zu den weniger guten – damit beides besser hĂ€ngen bleibt und man daraus lernen kann.Zuerst: Sam Altman hat erzĂ€hlt, dass AIModelle aktuell immer kosteneffizienter werden – etwa das Zehnfache pro Jahr. Das lĂ€sst sich gut belegen, wenn man GPT4 mit OpenReMini vergleicht und die BenchmarkLeistungen heranzieht.Er sprach auch davon, dass er sich ein „StargateProject“ in Europa wĂŒnscht.Naja, vielleicht ein bisschen schleimig – aber er wĂŒrde bestimmt nicht nein sagen, wenn die EU sagt: „Wir fördern euch, baut schöne Rechenzentren hier.“Das passt auch gut zu Ursula von der Leyen – auch wenn das nicht exakt in Sams Richtung geht.Denn so ein Projekt wĂŒrde gleich signalisieren: „Hey, wir haben eine StargateVariante, wie sie in den Staaten aufgebaut wird, und Europa bleibt nicht außen vor.“Und wenn wir das in Europa aufbauen wollen, dann holen wir uns gleich ein starkes amerikanisches Unternehmen, anstatt hier etwas Eigenes aufzubauen.Allerdings: Deutschland wird am Ende wahrscheinlich wenig davon profitieren – selbst wenn OpenAI hier etwas baut.Deutschland profitiert auch nicht von Amazon, obwohl die hier BĂŒros haben, oder von Google – ich hörte heute im TechTalk von Pip Blöckner, dass Google in Deutschland ausgerechnet 80 Mio. Euro Steuern zahlt. Am Ende bleibt in Deutschland nicht viel hĂ€ngen.Aber es kann nicht schaden, wenn man mitmischt – auch wenn Sam Altman sich nicht großgedacht hat, dass er unbedingt Rechenzentren in Europa will.Sein Plan ist, ĂŒberall dort Rechenzentren aufzubauen, wo er kann – vor allem in den USA, wo man aktiv nach PlĂ€tzen sucht, weil es schlichtweg nicht genug Strom gibt.Noch ein Punkt: Der „Bottleneck“ ist Strom. Überall, wo Rechenzentren möglich wĂ€ren, wĂŒrden sie gebaut – aber nicht ĂŒberall gibt es genĂŒgend Strom.Deshalb baut Microsoft etwa kĂŒrzlich in einem Kernkraftwerk weiter, um an Strom zu kommen und die Infrastruktur zu erweitern.Das ist ein Trend – nicht nur in den USA, sondern global.

Fabian 30:15Apropos Strom: Es gab auch Studentenproteste – wegen des hohen Energiebedarfs, den AI verursacht. Sam relativierte das, indem er sagte: Es sei effizienter, wenn ich ChatGPT nach etwas frage, als wenn ich ins Auto steige und in eine Bibliothek fahre.Man könnte den Vergleich vielleicht etwas hinkriegen, aber vermutlich wird AI am Ende effizient sein, weil die Technologie immer effizienter wird. Ich glaube also nicht, dass AI im Hinblick auf den Energiebedarf negativ dastehen wird.Dann gab es auch Proteste wegen einer angeblichen TrumpNĂ€he – das kann jeder anders sehen.Interessant fand ich aber, dass Sam auch ĂŒber OpenSourceModelle sprach – er sieht sie als wichtigen Teil der AIWelt und ĂŒberlegt, ob man nicht alte Modelle als Open Source verfĂŒgbar machen sollte.Er ging auf Reddit vor ein paar Wochen – in der AIWelt sind ein paar Wochen oft nur eine Woche – und meinte, er denke darĂŒber nach, alte Modelle Open Source zu stellen.Das ist schon interessant – ich frage mich, was die Motivation dahinter ist. BrĂ€chte das OpenAI etwas? Vielleicht regulatorische Aspekte? Vielleicht soll dadurch auch den VorwĂŒrfen – unter anderem von Elon Musk – entgegnet werden? Oder hofft er, dass man durch das Feedback der OpenSourceCommunity die Modelle noch besser ausrichten kann?Ich weiß es nicht – aber ich fĂ€nde das interessant und nicht verkehrt.WĂ€re etwa GPT4 als Open Source verfĂŒgbar, wĂŒrde das niemandem schaden.Vielleicht ist es gar kein Eigennutz, sondern Sam erinnert sich daran, dass man OpenAI ursprĂŒnglich so genannt hat, weil man AIOpen Source zur VerfĂŒgung stellen wollte – und vielleicht hat ihn ein schlechtes Gewissen gepackt.Er hat aber auch gesagt, dass das letztlich innerhalb der Unternehmensstruktur bei OpenAI diskutiert wird – und dass es daher auch heftigen Gegenwind gibt.

Alex 33:00Selbst wenn er jetzt sagen wĂŒrde, „wir wĂŒrden es gerne machen“, gĂ€be es viele kritische Stimmen, die das anders sehen. Aber auch das ist – ich sag mal – bloß Hörensagen aus seiner Perspektive.Das Interessante an OpenAI ist ja auch, dass es eine richtige Blackbox ist – wir können nicht so richtig reinschauen, sie geben sehr wenig Preis.Einige MitgrĂŒnder von Sam und OpenAI haben den Laden schon verlassen, weil sich OpenAI so verĂ€ndert hat: Von „wir wollen sichere AI entwickeln, Open Source – zum Wohle der Menschheit“ hin zu „wir wollen Geld verdienen“. Eine 180GradWende.Bisher wurde Sam ja immer als der treibende, etwas profitgierige Typ dargestellt, der die anderen aus dem Weg rĂ€umt. Da stellt sich jetzt die Frage: Ist er das wirklich oder gibt es andere KrĂ€fte – etwa Microsoft –, die mehr Druck machen? Ist Sam vielleicht der Einzige, der noch die ursprĂŒngliche OpenAIMission im Kopf hat?Ich glaube, da gibt es intern zwei Lager – und das ist sicher nicht einfach.Es bleibt dabei: Wir wissen es halt nicht. Blackbox ist hier der richtige Vergleich – man kann einfach nicht reinschauen und spekuliert nur.

Fabian 34:20Kommen wir zum nĂ€chsten Thema – wieder Sam Altman.Er hat auf Twitter gepostet, dass man einen Weg finden mĂŒsse, wie man Rechenleistung an die Leute verkaufen kann. Das heißt, du zahlst bei ChatGPT basierend auf der genutzten Rechenleistung.Vielleicht ist das mit GPT5 – aufgrund der AnkĂŒndigung – schon ein kleiner Schritt in diese Richtung, denn du zahlst ja am Ende: Je intelligenter das Model, desto mehr bezahlst du.Das war vielleicht ein kleiner SneakPeek, den man auch schon mal abhaken kann, weil er inzwischen fast obsolet wirkt.Und dann gab es noch OPEYE – oder willst du dazu noch was sagen?Generell hat er ja auch ĂŒber Deep Research gesprochen. Er sagte, das sei eine mega Funktion – und wir haben das auch schon ein paar Mal getestet; es ist echt geil, wird aber auch verschwenderisch genutzt.Ich könnte mir vorstellen, dass es bald ein proexklusives Abo fĂŒr etwa 2000 Dollar gibt, bei dem du dann unbegrenzt nutzen kannst, wĂ€hrend in anderen Bereichen innerhalb des Abos ein Nutzungslimit besteht – Ă€hnlich wie frĂŒher bei Mobilfunkanbietern, wenn man seine Gigabytes aufgebraucht hat und extra dazukauft.Vielleicht wird es bei OpenAI irgendwann so etwas geben.Oder beim 45, also beim 5Drop – also GPT5 – könnte es auch sein, dass alles ĂŒber reine KapazitĂ€t lĂ€uft.Ich bin gespannt, wie sie das Problem lösen, dass an manchen Stellen zu viel Geld verbrannt wird.Die Frage ist: Warum machen sie das nicht ĂŒber ein nutzungsbasiertes Preismodell wie in der API – also, du bezahlst letztlich pro Anfrage?Warum bei den CasualNutzern nicht so etwas?Ich verstehe das nicht ganz, denn wenn jemand mit dem ProAbo nicht auskommt, weil es ein Limit gibt – und Pro kostet ja eine Menge – warum nicht zusĂ€tzlich das APIPricing anbieten?Vielleicht ist das ein Ansatz, den sie irgendwann verfolgen mĂŒssen.Das kann ich mir gut vorstellen – professionelle Nutzer kĂ€men damit klar.FĂŒr mich wĂ€re das dann vermutlich auch mein Lohn.

Alex 36:05Übrigens hat der OpenAICPO Kevin Weil „Signin with OpenAI“ angekĂŒndigt – das ist Teil dessen, was sie fĂŒr Apple Intelligence gebaut haben. Leider können wir das in Deutschland nicht nutzen.Damit kannst du dich bei OpenAI einloggen – vermutlich hast du dann auch Zugriff auf all deine Daten bei OpenAI, inklusive deines „Memory“.Das wollen sie offenbar breiter ausrollen.Ich frage mich, ob das am Ende nur so funktioniert wie „Signin with Google“ oder „Signin with Apple“, also dass du dir darĂŒber einfach ein Konto erstellst – oder ob ChatGPT so weit geht, dass du beispielsweise auch deinen Memory mit der App teilen kannst, bei der du dich gerade anmeldest.Was meinst du – was wird das?Ich hatte darĂŒber auch schon nachgedacht.Ich frage mich aber auch, ob „Signin with OpenAI“ letztlich bedeutet, dass die Daten der App an OpenAI ĂŒbertragen werden – sodass OpenAI dein Nutzungsverhalten (deinen „Memory“) mitbekommt.Das wĂ€re natĂŒrlich interessant – und wenn sie so eine große Masse an Standardnutzern gewinnen, die vielleicht ein oder zwei Jahre – auch wenn es nur sporadisch ist – dabei bleiben, dann wird dieser Datenhaufen so gut auf den einzelnen Nutzer zugeschnitten sein, dass man gar nicht mehr wechseln kann.Wenn die OpenAIStruktur so gut darin ist, mit dir zu kommunizieren, dir die Antworten zu liefern, die du brauchst, dir sogar passende Tipps zu geben – sei es fĂŒrs Spiel, fĂŒr deinen Kalender oder sonstige Erinnerungen – und das in Kombination mit den ĂŒber „Signin with OpenAI“ gesammelten Daten, dann wird alles andere blass erscheinen.Aber was ist der Anreiz fĂŒr AppBetreiber, das zuzulassen?Wir bauen ja gerade auch eine App. Warum sollten wir also sagen: „Wir teilen jetzt die Daten unserer Nutzer mit OpenAI – was die in unserer App machen“?Bekommen wir dann pro Datenpunkt zwei Dollar oder wie soll das laufen? Vielleicht gibt es ja schon Kooperationen.Man muss jetzt nicht an unsere App denken – man kann sich auch eine SportApp vorstellen, etwa RunTastic oder Freeletics.Dann könnte es eine Symbiose geben, dass die App mit der AIStruktur von OpenAI kommuniziert und Daten austauscht – sodass das Training besser angepasst wird.Gleichzeitig könnte OpenAI in der Interaktion herausfinden, wie du dein Training oder deine ErnĂ€hrung verbessern kannst.Stell dir vor: Du sagst bei Freeletics, du möchtest Muskeln aufbauen, und dann liefert dir ein smarter Speaker – quasi ChatGPT – ein Rezept, das zu deinem Ziel passt.Das wĂ€re fĂŒr OpenAI natĂŒrlich mega.(Etwas scherzhaft:) „De l'Ă©jectif que nous. Yeah, un grand.“Ich bin zwar zu schlau dafĂŒr, aber ich muss mich wohl auf dein Level begeben – viele Folgen, nimm ne Tauchflasche mit.Nein, das ist wirklich – ich weiß nicht – das könnte ich mir vorstellen, denn ein reiner „Signin with 
“ wie bei Apple oder Google ist mir zu langweilig.Aber es wird sich zeigen, was das am Ende bedeutet.

Fabian 38:10Und damit zum letzten Thema – und wie könnte es anders sein? Es dreht sich wieder um OpenAI, wie fast die ganze Folge.Der reichste Mensch der Welt: Elon Musk hat mit einem Konsortium rund um sich 97,4 Mrd. Dollar fĂŒr die Kontrolle ĂŒber die OpenAINonProfitOrganisation geboten.Kurz zur ErklĂ€rung: Die NonProfitOrganisation von OpenAI kontrolliert alle darunterliegenden Assets – also ganz OpenAI –, und wer sie aktuell noch besitzt, hat die komplette Kontrolle. Elon Musk sagte, das wĂ€re fĂŒr ihn jetzt 97,4 Mrd. Dollar wert.Alex, was steckt denn dahinter?GrundsĂ€tzlich muss man sagen, dass das auch ein politisches Spiel ist.Elon Musk wirkt da etwas scheinheilig – er redet immer davon, dass OpenAI Open Source werden mĂŒsse. Dabei hat er mit XAI auch eine gewinnorientierte Organisation, die nicht Open Source ist.Es ist eher ein Spiel, ein Versuch, den Wandel von einer NonProfitOrganisation zu einem ForProfitUnternehmen hinauszuzögern und damit das Preisschild zu erhöhen – also den Wechsel nicht nur zeitlich zu verzögern, sondern auch deutlich teurer zu machen.Das hĂ€ngt damit zusammen, dass ObMight (oder „ob mehr Ei“, wie er es nennt) sich bei der letzten Finanzierungsrunde verpflichtet hat, sich bis Ende 2026 in eine ForProfitOrganisation umzuwandeln.Wie soll das gehen?Man muss die NonProfitOrganisation – die NGO – „auslösen“, also ihren Wert ermitteln und dann Anteile an der neuen ForProfitCompany vergeben.Aktuell rechnet man mit etwa 25 % Anteilen, was bei der nĂ€chsten Finanzierungsrunde – die bald mit Softbank kommen soll und bei der eine Bewertung von ca. 300 Mrd. Dollar angesetzt wird (bei einem Wert von ca. 75 Mrd. Dollar) – der Fall wĂ€re.Jetzt hat Elon Musk aber ĂŒber 20 Mrd. Dollar mehr geboten. Das wĂŒrde bedeuten, dass ObMight den Wert neu bewerten muss.Wenn sie das so durchwinken, könnte Elon zu Gericht gehen und fordern: „Ich biete hier mehr – passt den Wert an oder gebt mir die Firma.“Dann mĂŒsste ObMight vermutlich die NGO auf rund 100 Mrd. Dollar bewerten – was bedeuten wĂŒrde, dass an der neuen 300Mrd.-Firma ca. 33 % statt 25 % an die NGO gehen.Das wĂ€re fĂŒr ObMight nicht interessant, denn der Sinn der Umwandlung ist gerade, dass die NGO keine Macht mehr hat – und 33 % wĂ€ren deutlich mehr als 25 %.Außerdem hat derzeit noch Microsoft einen großen Anteil, und die eigenen Anteile wĂŒrden dadurch stark verwĂ€ssert werden.Ich glaube also, dass Elon Musks Spiel sehr gut kalkuliert war – vielleicht hat er deshalb nur in AnfĂŒhrungszeichen die 97 Mrd. genannt, weil er Angst hatte, dass Sam Altman dann sagt: „Ja klar, hier, nimm’s.“Auf Twitter hat er dann auch ganz cool reagiert – er bot im Gegenzug an, Twitter fĂŒr rund 10 Mrd. Dollar zu kaufen, als Ausgleich. Aber er sagte ganz klar: „Verkauft wird natĂŒrlich nicht.“Er hat einfach das Komma verschoben und gesagt, so Ă€hnlich wie: „Ein Dreckshaufen Twitter fĂŒr 40 Mrd.? – Das ist doch lĂ€cherlich!“Nun haben wir 9,74 Mrd. – also hat er sein Angebot letztlich zurĂŒckgenommen.Er hat das Angebot abgelehnt – intern wird es da aber bestimmt heiß hergehen.Ich denke, es war ein hart kalkuliertes Spiel von Elon Musk – sehr schlau, auch wenn er oft scheinheilig agiert.Aus meiner Perspektive: Am Anfang reagierte Sam Altman natĂŒrlich sehr seriös, aber spĂ€ter in einem Interview ließ er schon einige Spitzen gegenĂŒber Elon Musk fallen – frei ĂŒbersetzt, Elon Musk tut ihm irgendwie leid.Es ist schade, dass Elon es nicht schafft, sein Leben in geregelte Bahnen zu lenken.So oder so: Der Beef zwischen den beiden ist sicher noch nicht beigelegt – beide halten ihn aufrecht.Das sorgt natĂŒrlich auch fĂŒr Aufmerksamkeit, schließlich haben sie zusammen OpenAI gegrĂŒndet.UrsprĂŒnglich sollte OpenAI ein OpenSourceUnternehmen werden, das AGI in gute HĂ€nde bringt.Man könnte jetzt sagen, Sam hĂ€tte diese Mission verraten – obwohl es ursprĂŒnglich Elon Musks Idee war, das Ganze in ein ForProfitUnternehmen umzuwandeln.Damals hat Elon enormen Druck gemacht.Es gab EMails von OpenAI, die das belegen – sie waren vertrauenswĂŒrdig und legitim.Es ist also sehr scheinheilig, was Elon jetzt macht, aber letztlich lĂ€uft da ein regelrechter Krieg.Es geht darum: Wenn Elon OpenAI schadet, profitiert letztlich XAI.Ich glaube, es geht gar nicht um persönliche Rache – es wirkt nur populistisch.Rational betrachtet möchte er nur das Beste fĂŒr XAI: Je mehr er OpenAI schadet, desto besser kann XAI aufholen – vor allem, weil er auf seiner Plattform X ja auch GROC anbietet.Und es geht auch darum, die eigene UserBasis zu erhöhen und zu halten – sowie das Preisschild zu erhöhen.(Doppeltes Spiel.)Und wo du das ansprichst: Die haben dasselbe Problem wie Google X – sorry, aber GROC macht auch keinen Spaß.Die haben zwar eine UserBasis, aber das Tool wird kaum genutzt.Es gab GerĂŒchte, dass GROC 3 in den Startlöchern steht – diese GerĂŒchte kursierten auch auf X; wer weiß, vielleicht wird auch von Cloud 4 gesprochen.Wir werden sehen, was da kommt.Ehrlich gesagt: XAI ist viel jĂŒnger als OpenAI und auch jĂŒnger als Enforpic – und die haben bereits ein gutes Model, weil sie noch wenig Zeit haben.GerĂŒchte um GROC 3 und Cloud 4 deuten darauf hin, dass auch dort bald ein ReasoningModel kommen soll – sowohl bei XAI als auch bei Antrophic.Das wĂ€re natĂŒrlich spannend, wenn das wirklich passiert.Ich meine, die beiden Firmen sind ja im Rennen – sie mĂŒssten jetzt auch mal ein richtig gutes ReasoningModel prĂ€sentieren.Aber das ist alles noch reine GerĂŒchteKĂŒche – keine echten News, die wir jetzt verkĂŒnden können.Hast du noch etwas zu ergĂ€nzen?Nein, ich glaube, das war eine intensive Folge mit vielen Überraschungen – es hat echt Spaß gemacht, vor allem unsere Diskussion darĂŒber, wie sich AI entwickeln wird.Ich wĂŒrde sagen, dann hören wir uns in der nĂ€chsten Folge wieder.

Alex 40:30Oder möchtest du noch etwas an die Zuhörer loswerden?Ja, ich wĂŒrde mal sagen: Wer bis hierher zugehört hat, vielen Dank – auch wenn ich nicht sicher bin, ob ich diese ewig lange Pause verkraften werde.Aber guckt mal, das kriegen wir alles hin – und ich gebe mir auf jeden Fall MĂŒhe. Danke fĂŒrs Zuhören.Freut euch, wenn ihr uns einen Kommentar hinterlasst, uns folgt, weiterempfehlt und uns helft, in der weiten PodcastWelt Fuß zu fassen – damit wir nachhaltig platziert bleiben.NĂ€chste Woche gibt’s dann wieder die AINews – wir wissen ja, was da alles passiert.Und nĂ€chsten Sonntag kommt auch die nĂ€chste DeepDiveFolge.In diesem Sinne: Schönen Abend aus unserer Perspektive – egal, welche Uhrzeit ihr gerade habt.Schönen Abend auch von mir – und vielen Dank an dich, Alex.Das war eine gute Folge. Mach’s gut, bis dann. Ciao, ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.