OpenAI vs. Anthropic, IPO-Pläne, Milliardenwetten: Pip Klöckners KI-Statusbericht
Am 5. Mai auf dem OMR Festival 2026, heute schon im OMR Podcast: Der Tech-Analyst analysiert die aktuellen KI-Entwicklungen.
Philipp Westermeyer und Philipp "Pip" Klöckner haben in Hamburg die neue Folge aufgenommen. Foto: OMR
Während OpenAI bei einer Run-Rate von 25 Milliarden US-Dollar Umsatz steht, rückt Herausforderer Anthropic mit Claude im B2B-Markt massiv auf und gewinnt dort deutlich mehr Marktanteile. Im OMR Podcast spricht KI-Experte Philipp Klöckner über die wichtigsten aktuellen KI-Entwicklungen, darunter die gigantische Investitionswelle in Rechenzentren, bedrohte "Bullshit-Jobs", den Energiehunger von KI, der bald ganze Nationen vor massive Probleme stellen könnte bis hin zur Dominanz Chinas bei der Hardware-Produktion.
Die vergangenen Jahre haben gezeigt: Wenn Tech-Analyst Pip Klöckner bei seiner "Beyond the AI Hype"-Keynote auf dem OMR Festival das Slide-Feuerwerk zündet, kann man sich auf zwei Dinge verlassen. Erstens: Die Halle wird voll sein und zweitens: Es regnet KI-Wissen. Als kleinen Vorgeschmack auf die Keynote am 5. Mai, 12:10 Uhr auf der HBO Max Stage (hier kannst du den Slot in deinem persönlichen Festival-Timetable markieren) spricht der Tech-Analyst im OMR Podcast...
... über den Investitions-Wettlauf der KI-Unternehmen: „Dieses Jahr geben höchstwahrscheinlich nur die sechs größten Firmen – also die drei Cloud-Hoster Amazon, Microsoft, Google, sowie Meta, Oracle und Coreweave – 700 Milliarden Dollar für Investitionen in neue KI-Rechenzentren aus. Das ist mehr als der Marshall-Plan, das Apollo-Programm und das Manhattan-Projekt zusammen. Selbst inflationsadjustiert geben diese Firmen in diesem Jahr mehr aus als diese historischen Investitionsprojekte.“
...über Einnahmen und Ausgaben von Modellen, die in der Champions League mitspielen wollen: „Würden diese Unternehmen heute aufhören zu forschen, also keine neuen Modelle mehr trainieren, wären sie alle sofort profitabel. Von den 25 Milliarden Dollar Umsatz bei OpenAI würden wohl 7 bis 8 Milliarden als Gewinn übrig bleiben, oder zumindest als Rohertrag. (...) Zum Beispiel in den B2B-Verträgen haben sie überall einen ordentlichen Deckungsbeitrag. Also da drucken sie quasi Geld. Ich vergleiche das mal so: Das ist wie eine Goldmine, wo du reingehen musst und du kannst Gold rausholen. Aber das Eintrittsticket zu der Goldmine, also eins der drei besten LLMs am Markt zu haben, da hinzukommen wird immer teurer, weil du zig Milliarden an Forschungsaufwendungen brauchst, um dir quasi eine Position in den Markt zu erkaufen jedes Jahr. Und die Aufwendung, um das beste Modell zu haben, steigt so ungefähr um das Vier- bis Fünffache – jedes Jahr. Du brauchst fünfmal so viel Rechenleistung, um einfach nur ein Modell zu bauen, was wieder quasi Champions League spielt."
...über die Gefahr für den Arbeitsmarkt: „Ich nenne das die Bullshit-Economy: Wenn dein beruflicher Output rein digitale Güter sind – also du baust Reports, Excel-Tabellen, E-Mails oder Content – dann ist dein Job wahrscheinlich schon heute relativ gefährdet. Aktuelle Studien zeigen, dass etwa zweieinhalb Prozent der US-Ökonomie bereits jetzt von KI übernommen werden könnten. Also das ist noch relativ wenig und schwer zu sagen, was das genau heißt. Aber überall dort, wo Output digitaler Content im weitesten Sinne ist oder auch bei Teilen des Consultings, wird menschliche Arbeit nach und nach ersetzbarer."
... über AI-First-Startups mit einem Team von Agenten: „Es wird eine Art Parallelökonomie entstehen, in der Startups oder Einzelunternehmen hyperproduktiv arbeiten. Wir werden einzelne Personen sehen, die ein Unternehmen führen, für das man heute noch 40 Leute bräuchte, die das ganz allein machen mit einem Orchester von Agenten. Das wird in den nächsten zwei, drei Jahren definitiv so sein. Diese jungen Startups werden auch AI-first bauen, das heißt, die werden deutlich weniger Leute einstellen. Und die Frage ist jetzt, wie schnell können die jetzt quasi Marktanteile von den großen Firmen gewinnen. Dass die großen Firmen sich jetzt so schnell transformieren, dass sie in den nächsten Jahren 30 Prozent ihrer Mitarbeiter entlassen können, da glaube ich ehrlich gesagt nicht dran."
... über das Risiko des ruinösen Wettrüstens in der Forschung: "Also die große Gefahr ist, dass die Modelle einfach komplett 'commoditisiert' werden, also dass die so allverfügbar werden. Da ist das wahrscheinlichste Szenario, dass sie immer relativ schnell in China kopiert werden. Also das heißt, du baust das beste Modell, investierst 300 Milliarden, um 2028 das beste Modell zu erforschen. Und mit einem Verzug von zwei, drei Monaten destilliert jemand in China das Modell. Basierend auf sehr guten Modellen kann man ein 98 Prozent so gutes Modell, aber deutlich günstiger und schneller bauen Und warum sollte mein Kunde dann nicht das Modell nehmen, was viel günstig ist? Das ist dieses tödliche oder ruinöse Wettrennen oder Wettrüsten in der Forschung. Die einzige Hoffnung ist, dass halt irgendjemand dann zuerst sogenannte AGI oder Superintelligenz erreicht und dann die software sich von selber schreibt und man alle Geschäftsmodelle der Welt irgendwie relativ schnell übernehmen kann oder so. Ansonsten wird es schwer, irgendwann das Geld wieder reinzubekommen, weil du stehst halt ständig im absoluten Wettbewerb. Dagegen würde sprechen, wenn man es schafft, dass Modelle so eine Art Geschmack haben. Also dass du, so wie du heute vielleicht bei Telefonunternehmen vielleicht eine Affinität zu einer gewissen Brand hast oder dir gefällt die Markensprache besser. So kann das natürlich auch bei Modellen sein, aber ob du dafür dann bereit bist, einen deutlich höheren Preis zu zahlen, ist die Frage."
...über sein Verständnis von Superintelligenz: „Ich definiere Superintelligenz als eine KI, die in jedem Fachgebiet klüger ist als die schlausten Experten und die gesamte Menschheit zusammen. Die Frage ist: Brauchst du diesen Status überhaupt? Denn auch jetzt hast du schon KI, die viele Berufe deutlich besser machen kann. Wenn es zum Beispiel um Output von digitalen Dingen geht, ist KI jetzt schon deutlich besser. Das heißt, massiv ökonomisch wertvolle KI wird es schon lange vor der Superintelligenz geben. Allein das wäre schon ausreichend, um unheimlich viel Wertschöpfung zu schaffen. Die Frage ist, ob du jetzt eine KI haben möchtest, die dann selber forscht, selber neue Technologien erforscht, sich selber weiterentwickelt. Das birgt dann schon fast mehr Gefahren als Potenziale."
OMR Podcast