Doppelgänger Folge #330 vom 23. Februar 2024

AI Training vs. Inferenz | Nvidia Earnings & Konkurrenz von Groq Chips | Wie geht Hypergrowth | Sam Altmans Reddit Beteiligung | Earnings: Booking, Palo Alto Networks, Wayfair, ZipRecruiter

Was ist Inferenz bei AI Modellen und warum können Groq Chips das so gut? Die Nvidia Earnings überraschen positiv. Sam Altman besitzt überraschend viel an Reddit und Pip redet darüber, wie ein Hypergrowth Unternehmen funktionieren könnte.


Werbung: LIQID Venture: Investieren in die Unicorns von morgen. Anmeldung für das kostenlose Online Event am Samstag, den 2. März, über LIQID.de/dg.


Philipp Glöckler und Philipp Klöckner sprechen heute über:

(00:00:00) Intro

(00:04:00) Training vs. Inferenz

(00:06:20) Hypergrowth

(00:18:50) Groq

(00:31:30) Google Gemini

(00:51:00) Reddit

(00:58:15) Nvidia Earnings

(01:13:35) Palo Alto Networks Earnings

(01:16:00) Booking Earnings

(01:22.55) Wayfair Earnings

(01:27:45) Nu Bank Earnings

(01:35:40) Kununu Klarnamen


Shownotes:

Aktuelle Werbepartner des Doppelgänger Tech Talk Podcasts und unser Sheet

Groq

Gemini Demo: Youtube

Sam Altmann Reddit: Hollywood reporter

Reddit Finanzen

News blocking AI: Reuters

Kununu Klarnamen

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger Tech Talk Podcast Folge 330 am 24. Februar 2024. Ich bin Philipp Glöckner und telefoniere zweimal die Woche mit Philipp Glöckner. Pip, hast du gelernt, wie du schneller cut und pasten kannst auf Microsoft?
Ja, ich war ein fucking Neandertaler, habe ich gemerkt. Natürlich gibt es viel flexiblere Zwischenablagen. Uns wurden verschiedene Tools empfohlen, unter anderem Phrase Express, mit denen man einfach hunderte von verschiedenen Phrasen oder Inhalten in der Zwischenablage haben kann. Ich kann das für ein paar meiner Workflows tatsächlich ganz gut gebrauchen. Vielen Dank, Leute, die uns darauf hingewiesen haben. Damit ist dann auch klar, dass man eben doch sehr schnell im Sekundentakt eventuell Copy-Paste-Kommentare abgeben könnte. Das haben wir letztes Mal diskutiert im Zusammenhang mit der Causa LSB. Wobei da war es ja teilweise so, dass dieser Daniel Hall hat ja unter anderem gefunden, das haben wir letztes Mal nicht ganz richtig erwähnt, dass auch mit dem identischen Timestamp sechs Kommentare einmal, ich glaube sechs Stück, gemacht wurden. Dass du innerhalb einer Sekunde sechs verschiedene Kommentare posten kannst, das wiederum halte ich für unwahrscheinlich, sofern die Timestamps richtig aufgelöst worden sind. Naja, LinkedIn müssen wir jetzt nicht nochmal thematisieren ansonsten. Aber ja, man kann mehrere Inhalte in der Zwischenauflage haben. Also quasi so eine Matrix- oder Vektor-Zwischenauflage.
Heute haben wir viele Earnings, während du da Cut und Paste alle Zahlen gemacht hast und Doppelgänger.
Achso, wo wir gerade bei Erweiterung, da können wir das auch nochmal durchziehen. Es gab auch viele Leute, die unsere Beantwortung der Frage mit dem fünffachen Millionär durch Erbschaft zumindest nochmal gern präzisiert haben wollen. Es war so, dass die Frage so gestellt wurde, dass jemand wirklich schon die Entscheidung getroffen hatte, den MSC Volt sozusagen als Instrument zu wählen. Und dann war die Frage in Anführungsstrichen nur noch, oder in Klammern nur noch, Sofortanlage oder Stück für Stück oder Cost Average Effects ausnutzen und so weiter. Und wie gesagt, es ist so, wie gesagt, das ist wissenschaftlich einfach, weil der Erwartungswert der Börse prinzipiell positiv ist, dass die Sofortanlage sinnvoller ist. Natürlich muss man jetzt überlegen, was ist die Risikoneigung der Person? Wäre es dann nicht sinnvoller, vielleicht das doch nach und nach zu machen und so weiter. Aber die Entscheidung zum MSCI World war hier aber schon getroffen. Das heißt nicht, dass das für jedermann die richtige Entscheidung wäre, sondern manche Leute fühlen sich vielleicht auch mit 30% Anleihenwohler im Depot. Aber hier war es anscheinend eine finanziell unabhängige Person, wo es nur um... die die Frage sofort oder nach und nach ging. Und da, glaube ich, haben wir die richtige Antwort gegeben. Und natürlich ist für die allermeisten Menschen diese Frage viel komplexer zu beantworten, weil dann Risiko und Psyche und sowas alles ein bisschen mit eine Rolle spielt. Entschuldigung, dass ich ihn heute brauche.
Es ist das erste Mal in diesem Jahr, ist kein Problem, in dieser Podcast, in diesen 330 Folgen.
Hey, why so salty? Wir fangen gerade erst an.
Während du heute die Zeit genutzt hast, oder gestern wahrscheinlich, um cut-and-paste die Earningszahlen ins doppelgänger.io-sheet einzuflegen, wollte ich den Tag ganz entspannt anfangen und habe mir gedacht, ich höre mir heute zwei Earningscalls an. Nvidia und ZipRecruiter und that's it. Dann habe ich bei Nvidia angefangen. Und bin so ein bisschen abgetaucht und hab mir überlegt, wie war das damals nochmal um 2000? Da kommen wir später nochmal so ein bisschen rum, aber vorher... Eine unvorbereitete Frage. Ich hatte mir hier drei überlegt. Magst du mir nochmal den Unterschied zwischen Training und Inference erklären?
Mit Bezug auf die Ehe? Wie kommt es jetzt auf? Ja, Inference ist die Abfrage des Modells. Also Training ist, ich haue ganz viele Daten in so ein Modell. und adjustiere Parameter, sodass am Ende sozusagen die Recall Precision, dass es das Richtige herausgibt, optimal ist oder so gut wie es lokal möglich ist und dann ist so ein Modell einmal trainiert bis zu einem gewissen Optimum, das man für sich festgelegt hat und Dann kann man sagen, Inference ist dann der Prozess, mit dem Modell zu arbeiten. Also dann die Ergebnisse, so den Output rauszuholen sozusagen. Also Training könnte man sagen, ist Input in das Modell und Inference ist Output, wäre eine einfache Beschreibung. Glaube ich, macht das so Sinn? Und natürlich ist der Trainingsprozess viel, viel aufwendiger. Wenn wir immer diese 100 Millionen hören oder sowas da im Raum steht, das ist explizit, damit ist das Training eines neuen Machine Learning Modells gemeint. Wobei es auch günstigere Varianten gibt. Und die Inference ist, da geht es eher so um ein paar Bruchteile, eine Cent pro Output. Je nachdem, wenn du dir jetzt irgendwie große Videos rausgeben lässt. So ein Sora-Output kostet wahrscheinlich vielleicht zwei Dollar oder so, weiß ich nicht. Aber jetzt ein kleiner Text-Output oder ein kleines Gedicht kostet eher so einen Cent oder zwei Cent vielleicht als Inference-Kost. Also das ist in Masse zwar auch rechenintensiv, aber... Und dann langfristig hast du Inference, ja irgendwann wäre Inference halt Reasoning, also wenn ein Modell wirklich denken kann oder was meinst du jetzt?
Ja, so kam das so ein bisschen in dem Earnings Call vor.
Genau, also Reasoning heißt, wie sagt man im Deutschen? Reasoning? Schlussfolgern? Also, ja, wenn es logische Schlussfolgerungen treffen kann. Das würde es natürlich dann höchstwahrscheinlich noch rechenintensiver. Weil im Moment ist es ja so eine Art von statistischer Erinnerung, wenn man möchte. Würde es wirklich Zwischenschritte noch machen und eventuell wirklich in Anführungsstrichen nachdenken oder Schlussfolgerungen treffen, könnte es auch sein, dass es nochmal komplexer wird und damit teurer. Aber gleichzeitig gibt es ganz viele Effekte, die dagegen laufen. Ich bin da relativ optimistisch eigentlich.
Bevor wir komplett in der AI wieder abtauchen, erstmal was Operatives. Eine höhere Frage kam rein und zwar wollte jemand wissen, wie schaffen es Hypergrowth-Unternehmen wie beispielsweise damals Gorillas, dass eine Internationalisierung in so einem extremen Tempo passiert? Wie wird so schnell ausreichend qualifiziertes Personal gefunden und die bürokratischen Herausforderungen, insbesondere der Gründung lokaler Gesellschaften, gemeistert? Werden dafür spezielle Markenentwickler, Firmen oder lokale Geschäftsführer eingesetzt? Und wenn ja, wie findet man diese Person so schnell an? und versetzt diese in die Lage, eine volle Verantwortung zu übernehmen. Also, wie macht man Hyper-Growth international operativ?
Bei einem physischen Business in diesem Fall, das ist ja nochmal besonders, mit rein digitalen Produkten oder Marktplätzen kannst du Hyper-Growth teilweise auch einigermaßen zentral machen, aber hier brauchst du Leute sozusagen on the ground. Man könnte Gorillas nehmen, aber auch ganz viele Rocket-Ventures, die man in der Vergangenheit gesehen hat, als Beispiele. Es ist tatsächlich, also die Anforderung oder die Herausforderung ist, warum musst du eigentlich Hyper-Growth machen? Weil manchmal Modelle auch, also ein Grund ist zum Beispiel, dass es sich um Winner-Takes-It-All-Markets handelt. Das heißt, das Risiko, du startest erstmal in Deutschland und machst das groß und testest aus, wie gut das Modell funktioniert, ist keine Option, weil du wahrscheinlich nach spätestens sechs Monaten Konkurrenten in Spanien, Frankreich, Polen und so weiter hättest. Das heißt, du musst es parallel starten. Das ist eigentlich... Insofern ineffizient, dass du auch Fehler damit duplizierst. Es wäre eigentlich schöner, du probierst es mal in einem Land aus, bis die Kinderkrankheiten weg sind und dann skalierst du ein erfolgreiches, getestetes System. Das geht so aber in dem Fall nicht, weil du dir das zeitlich nicht leisten kannst. Auch bei Gorillas hervorragendes Beispiel, da sind ja trotzdem wie Pilze Konkurrenten aus dem Boden gesprossen. Und deswegen musst du eben hyperscalen und musst es schnell machen. Der andere Grund für Hyperscaling ist in der Regel, dass du auch eine gewisse Größe brauchst, bevor ein Modell funktioniert. Gerade wenn es um Netzwerkeffekte geht, wie auch im Gorillas-Modell oder bei vielen Rocket-Modellen, dann klappt das einfach nicht irgendwie in geregelten Maßen langsam vor sich hin zu wachsen, sondern damit das Modell überhaupt erst attraktiv wird, man gewisse Margen und Attraktivität für die Nutzer und so weiter erreicht, muss man einfach sehr stark skalieren. Das ist die Voraussetzung, würde ich sagen. Wie man das dann macht, ist es tatsächlich so, dass man stellt ein ganz gewisses Profil an. Ich würde sagen, das Profil ist erstmal eine gute Ausbildung in der Regel, gute universitäre Ausbildung oder Consulting-Erfahrung. und was man so Bias for Action nennt, also eher ein Macher. Vielleicht ein bisschen das Gegenteil von mir. Ich bin eher so ein Denker und mich langweilt das, sobald das Machen anfängt, sondern mich interessiert nur sozusagen die intellektuelle Lösung des Problems. Es gibt auch Menschen, die total gut darin sind, haben vielleicht irgendwelche andere Schwächen manchmal, aber dafür können sie einfach sehr gut loslaufen, wenn man ihnen sagt, was der Plan ist. Und die versucht man zu finden und dann parachutet man die so in die Länder. Also wir sind Fallschirmjäger oder Fallschirmjägerin, kriegen die ein Flugticket, eine Kreditkarte und sagen, jetzt mach mal. Bei Rocket war es so, dass es so eine Art Playbook gab. Also du wusstest schon, wie, sagen wir mal, Südkorea funktioniert. Also wie gründet man eine Firma in Südkorea? Welche Gesellschaftsform würde man nehmen? Mit welchem Anwalt und Notar arbeitet man? was sind die wichtigen regulatorischen Hürden in dem Land, wo kriegt man das richtige Personal und so weiter. Das heißt, wenn man das regelmäßig macht, wie bei Rocket, ist es natürlich ganz gut, weil du so ein Playbook hattest und ein bisschen Vorerfahrung. Bei sowas wie Gorillas ist es eher so, dass du, ja, also du hirest jemanden sehr schnell. Das Profil ist, idealerweise ist harte Arbeit gewohnt. Das heißt, toll ist immer Investmentbanking-Hintergrund oder Consulting-Hintergrund, wo man einfach weiß, dass in der Regel gut ausgebildete Leute sind und weil sie gewohnt sind, mehr als acht Stunden am Tag zu arbeiten. Ich würde das jetzt erstmal nicht bewerten, das kann man richtig, falsch, gut, böse finden, wie auch immer, aber das ist das Profil, was man in der Regel sucht. Eine hohe Arbeitsbereitschaft, hohes Maß an Selbstständigkeit und diese Bias to Action, also einfach Dinge wegschaffen können jeden Tag und nicht aufhören, bevor alles geschafft ist und auch irgendwelchen Leuten zehnmal hinterherzutun usw. Und wie gesagt, dann setzt man die in ein Flugzeug mit Kreditkarte und mehr brauchen sie nicht, ein paar Unterschriften vielleicht. Und dann bauen die relativ unerkennlich. Man hat in der Regel, auch ein Gorillas hatte sicherlich ein Playbook, wie sieht ein perfektes Lager aus? Sind da genug Steckdosen? Sind die Gänge nicht zu eng? Man versucht so eine Art Blaupause zu entwickeln, die gut ist und die verändert sich natürlich während man lernt. Danach wird das dann tatsächlich so ausgeführt. Bei Rocket gab es so ein Profil, das hieß entweder Entrepreneur in Residence oder Global Venture Developer. Das waren so Leute, die entweder Das in der Zentrale so ein bisschen geübt haben oder wirklich in die Länder geflogen sind. Viele der heutigen Gründer haben mal so bei Rocket angefangen. Ich glaube, so Finn war mal in Australien mit der Iconic, Finn Hensel, dann so Lea war Japan, glaube ich, für Rocket. Genau, der von Westea, Max Wittner, hat Lazada gemacht in Südostasien und so. Das sind unheimlich viele Leute. Paul von Event Inc., ganz viele. Uwe, der Gorilla-Mitgründer, war in der Türkei früher mal Country-Manager Wimdu zum Beispiel. Wimdu hat ja auch das genau gleiche Thema. Das heißt, High-Profile, Bias to Action, auf geht's und dann... versucht man natürlich so über irgendwelche Abstimmungscalls oder Conferences und Zoom-Meetings so ein bisschen Learnings zu teilen. Die Learnings, die für viele Länder oder viele, bei Gorillas waren es ja sogar Locations und Städte dann, sagen wir mal, was relevant ist, zu teilen an Learnings. Aber ganz oft ist es eben so, dass es dann zwischen den Ländern auch unterschiedliche Herausforderungen gibt. Das war mal bei Rockets so ein bisschen die Herausforderung. Also Was haben Länder gemein und was unterscheidet sie? Und wo macht es Sinn, so ein zentrales Regime zu übernehmen? Und wo macht es eher Sinn, das Land entscheiden zu lassen? Das war A, bei jedem Venture auch so ein bisschen anders und B, immer so ein Grundkonflikt, den es gab. Ich war zum Beispiel dafür, die SEO-Abteilung immer zentral zu machen, einfach damit alle Leute auf dem gleichen Weg sind. Stand des Wissens sind und weil es meiner Meinung nach unmöglich ist, ein Team von bis zu, das waren teilweise 40 Länder, also wie soll jemand wöchentliche Calls mit 40 Ländern machen? Das heißt, du hast nicht eine Stunde Zeit zu arbeiten in der Woche, weil du nur in Calls mit deinen Ländern bist. Deswegen haben wir uns dagegen entschieden und einfach die Leute aus den ganzen Ländern nach Berlin geflogen und in einem zentralen Team gearbeitet. Das heißt, die haben weiterhin für ihre Länder gearbeitet und Und in ihrer Sprache, also bei SEO ist quasi die lokale Sprache dann der Vorteil, den du brauchst, aber dafür hast du zentral gelernt. Und du könntest ja zum Beispiel bei so einem Gorillas-Modell auch sagen, das Marketing machst du, kommt jetzt darauf an, ob es Air-Performance-Marketing ist, Air-Offline, das ist so. Brand Offline Marketing würde man wahrscheinlich eher im Land machen. Performance Marketing, glaube ich, macht Sinn, zentral zu sein. A, weil du mehrere Länder aus einem Account eventuell machen kannst oder mit einer Person abdecken kannst und weil die Learnings sehr ähnlich sind in dem Fall, würde ich sagen. So, was steht hier noch? Qualifiziertes Personal, haben wir gesagt, das ist halt so dieses High-Profile oder High-Performer-Profil, was man sucht. Bei Rocket war es sozusagen mehr so der Consulting-Background, bei Gorillas war es dieses Bias-to-Action, glaube ich. Da konntest du auch einfach von einer einigermaßen guten Uni kommen und noch nichts vorher gemacht haben, solange die Motivation gestimmt hat. Genau, lokale Gesellschaften muss man natürlich gründen. Wiederum hat Rocket natürlich auch so ein bisschen industrialisiert. Es gibt ja sogenannte Shelf, nicht Shell wie die Muschel, sondern Shelf Companies. Also Shelf, weil sie aus dem Regal gezogen werden. Also Vorratsgesellschaften ist das deutsche Wort dafür. Und damit kannst du innerhalb von einem Tag letztlich operativ auftreten. Also es gründet jemand eine, keine Ahnung, die heißt dann brillant 3341 GmbH und da ist irgendein Notar oder Anwalt, Geschäftsführer in der Regel. Und dann kaufst du quasi diese Vorrats GmbH und kannst sofort anfangen zu operieren und musst jetzt nicht die Gewerbeanmeldung und sowas noch machen, sondern nur beim Notar ummelden, dass es einen neuen Besitzer gibt. Das ist, wie gesagt, das lohnt sich aber eigentlich nur, wenn man so regelmäßig als Inkubator das macht. Dienstleister haben wir bei Rocket relativ wenig genutzt, würde ich sagen. Es war alles Inhouse, aber wie gesagt, es hat natürlich einen Riesenvorteil, wenn du das regelmäßig machst und nicht nur einmal. Und lokale Geschäftsführer, ja klar. Also natürlich hast du in jedem Land, du brauchst ja irgendeine Art von Hierarchie. Und das führt dann am Ende auch immer zu lokalen Geschäftsführern, die dann in einem globalen CEO oder C-Level-Vorstand untergeordnet sind, langfristig. Auch nicht ganz untypisch. Und man gibt ihnen aber unheimlich viel Verantwortung. Also die Frage ist ja auch irgendwie, wie können die so schnell, wie versetzt man die Lage so viel Verantwortung zu nehmen? Also wichtig ist eben der Erfahrungsaustausch, dass insbesondere Fehler natürlich schnell geteilt werden, sodass man Fehler so selten wie möglich doppelt macht. Und ansonsten hired man ja erwachsene Menschen und natürlich können die die Verantwortung haben. Und deswegen war das bei Rocket quasi auch so das perfekte Profil, um später eventuell selber Gründer zu werden. Weil wenn du einmal bewiesen hast, dass du mit einer Kreditkarte in Land fliegen kannst und baust da, sagen wir mal, ein Fashion-Unternehmen mit Logistik auf oder sowas wie Groupon oder... eben Wimdu in teilweise regulierten Märkten und so, dann ist das glaube ich, dann traut dir in Zukunft ein Wagniskapitalfinanzierer wahrscheinlich auch eher zu, dass du so eine Firma bauen kannst. Weil die Abläufe sind ja sehr ähnlich. Eigentlich waren das sozusagen Auftragsgründer, wenn man so möchte. Die haben dafür ein bisschen weniger Anteil an der Firma bekommen. Das ist ja auch relativ transparent. gewesen und geworden. Aber dafür haben sie natürlich auch viele Ressourcen von Rocket bekommen, die den Start jetzt etwas einfacher gemacht haben, gutes Gehalt und so weiter. Das hat alles immer Vor- und Nachteile. Das wären so die wichtigsten Punkte, würde ich denken. Aber es geht nur sozusagen mit verantwortlichen Leuten in den Märkten. Du kannst das nicht in der Regel zentral steuern. Dann kommst du eigentlich nicht da hinterher oder baust einen riesen Wasserkopf in der Zentrale auf, aber checkst trotzdem nicht, was in den Märkten funktioniert. Hat ja auch einen Grund, dass irgendwie ein großer Lebensmittelhändler, sagen wir mal so ein Lidl, der in vielen Ländern operiert, die haben natürlich auch eine ähnliche Struktur. Das ist vor Ort Regionalleiter und dann, also im Fall von Guerillas hast du ja eigentlich, du hast jemand, der im Warehouse die Mütze auf hat. Dann hast du jemanden, der die Stadt vielleicht sogar verantwortet oder einen Regionalmanager, der mehrere Warehouses verantwortet. Und dann hast du eben irgendwann einen Country Head, der untersteht dann dem Vorstand oder Gründer.
Es war auch so ein bisschen die Zeit, also vor allem in Rocket, dass man ja ein Modell genommen hat und das dann global ausgefahren hat. Überall, wo die Amerikaner nicht so schnell hinkonnten. Heutzutage ist das fast nicht mehr möglich, oder? Oder die Opportunität ist gar nicht mehr da.
Oder doch? Genau. Ich glaube, diese einfachen, in Anführungsstrichen, operativen Modelle, die sind einfach alle relativ besetzt und gefixt, glaube ich. Also ich finde prinzipiell so eins zu eins Copycats zu bauen, also ich glaube Ideen sollten nicht schützbar sein. Facebook ist nicht das erste Social Network, Airbnb hat die Idee Airbnb nicht erfunden, sondern es war Couchsurfing.org. Das heißt, ich finde es total fair game. Geschäftsmodelle zu kopieren, sofern man jetzt nicht 1 zu 1 Website oder Code oder sowas kopiert. Das ist Plagiarismus, auch klar. Und wenn das passiert, ist das doch doof. Aber ich finde es fair, sozusagen die zu challengen und das war einfach eine Skill von Rocket, das besonders gut und effizient und vor allem schnell zu machen. Und manchmal hat es geklappt und manchmal eher nicht. Aber es sind ja dann mit Zalando, Home24, Lazada, genau, und was noch so überlebt hat, quasi die relevanten Modelle damit entstanden, die so jetzt insgesamt wahrscheinlich einen ganz guten Return geliefert haben. Foodpanda und Delivery Hero natürlich nicht zu vergessen, ja. Kurze Werbeunterbrechung.
Unser neuer Partner ist der moderne Vermögensverwalter auf Family Office Niveau, Liquid. Im Podcast sprechen wir oft über Startups, welche von Top VCs wie Andreessen Horowitz, Sequoia oder Excel finanziert wurden.
Doppelgänger Hörerinnen wissen, dass VCs ihr Geld von LPs bekommen und man eigentlich nicht als Privatperson in Top Venture Capital Fonds investieren kann.
Mit Liquid geht das.
Hier habt ihr die exklusive Möglichkeit, als Privatanleger in die Fonds der führenden VC-Manager zu investieren.
Dazu gehören sogar sechs der Top Ten weltweit. Falls dich das interessiert und du mehr darüber erfahren möchtest, kann ich dir das kostenlose Online-Event Liquid Venture investiere in die Unicorns von morgen, am Samstag, den 2. März um 11 Uhr empfehlen. Dafür anmelden kannst du dich unter liquid.de. Da schreibt man liqid.de slash dg für Doppelgänger. Den Link findest du natürlich in unseren Show Notes. Viel Spaß mit der weiteren Folge. Werbung Ende. Ich habe mich die Tage mit einem Bekannten über Nvidia kurz unterhalten und dann meinte er, ob ich Croc kennen würde. Ein Chip-Hersteller, den ich noch nicht kannte. Ich habe erst gedacht, das wäre das Thema, was Elon Musk mit seinem AI-Startup da bei X oder so am Pushen ist, aber es scheint was anderes zu sein. Sind das jetzt die großen Herausforderer von Nvidia?
Ich würde sagen, Grog mit Q ist das. Das LLM von Twitter oder von XEI, das heißt der Grog mit K. Dabei geht es um die gleiche Figur oder die gleiche Romanfigur, auf die das beruht. Aber in diesem Fall ist es tatsächlich ein sehr fortschrittliches Unternehmen, gegründet von Jonathan Ross, da kommen wir gleich noch drauf. Und ich habe schon mal beschrieben, diese Cerberus-Chips, wo auf einem Wafer quasi so Hochleistungs-GPUs oder Prozessoren angebracht sind. Und GROK macht was ganz ähnliches. Also sie bauen Hoch- platin, oder nicht platin, sondern Schaltkreise. Das heißt, was wir immer ASICs nennen, Application Specific Integrated Circuits, also auf gewisse Applikationen, in diesem Fall Machine Learning und in dem Fall noch spezieller Inferenz, das haben wir gerade am Anfang erklärt, deswegen ist es vielleicht wichtig, auf hochspezialisierte, integrierte Schaltkreise. Und die sind deswegen so spannend, weil weil die während Nvidia Chips natürlich schon prinzipiell auf AI-Anwendungen besonders zugeschnitten sind. Am Anfang waren es einfach irgendwelche Grafikchips, die zufällig diese Matrix-Multiplikation, die man braucht, besonders gut können. Und jetzt baut man diese so Tensor-Chips, die einfach immer, immer besser diese spezielle Anforderung noch erfüllen. Und Grog hat die Spezialisierung jetzt quasi noch ein Level höher getrieben. Und ich glaube, sich nicht auf... Amazon verzichtet auf den Trainingspart, sondern auf die Inferenz. Das siehst du auch bei den anderen ASICs, also die ASICs der großen Cloud-Anbieter. Bei Amazon gibt es ja diesen Inferentia-Chip, den sie selber entwickelt haben. Der ist eben, kannst du sagen, besonders gut für Inferenz und dann gibt es den Trainium, der besonders gut fürs Training ist und Graviton gibt es noch. Und Grog baut jetzt aber quasi einen super leistungsfähigen Inference-Chip oder LPUs nennen sie es, Language Processing Unit statt GPU. Am Ende ist der Fort-, also wodurch kommt der Geschwindigkeitsverteil? Also damit ist man 10 bis 100 Mal schneller als bestehende Nvidia-Chips beim Ausführen, also nur bei der Inferenz dieser Models. Das ist natürlich, also 10x ist eine Größenordnung größer als halt Kompletter Wahnsinn eigentlich, was das für ein Fortschritt ist. Und der Trick, den sie machen, ist, das haben wir auch schon mal erklärt, als wir über Zervus geredet haben, dass das Problem ist bei der herkömmlichen Architektur, dass du quasi auf dem Chip selber nicht genug Speicher hast in der Regel. Und der Speicher ist wichtig, weil du da entweder die Zwischenergebnisse beim Rechnen oder die Tokens reinlegen kannst. Wer interessiert, warum das wichtig ist, kann sich von Neumann Architektur von Rechnern anschauen. Dann versteht man das ein bisschen zusammen mit den Tensor- Dann verstehst du quasi, warum es so wichtig ist, ganz viele Rechenoperationen zu parallelisieren, also gleichzeitig verschiedene Rechenoperationen zu erledigen. Und warum das Memory so wichtig ist, der Speicher. Und der Vorteil dieser Chips ist, dass der Speicher eben nicht extern ist. Also super extern wäre, du hast einen Serverschrank, wo ganz viele CPUs drin sind und irgendwo das Memory. Das wäre jetzt ganz extern. Es kann auf einer Platine sein, aber in dem Fall ist es quasi so nah aneinander, dass die CPU quasi direkt auf den Speicher zugreifen kann mit minimalen Verlusten. Das heißt, du hast einen super hohen Memory-Throughput, also die Die Speicherrate hat besonders viel Bandbreite und gleichzeitig hohe Compute Density, also auch sehr leistungsfähige Daten. Und dadurch schaffen sie halt dieses 10, jetzt 100 mal stimmt weiß ich nicht, aber das was getestet wurde ist auf jeden Fall schon, dass sie 13 mal besser als Microsoft Azure sind damit. Ist jetzt ja nicht so, dass die sich dumm anstellen, weil sie es parallelisieren, also alle AI-Chips parallelisieren das und sind quasi sogenannte Tensor-Chips, aber die können das eben einfach nochmal besser, weil das alles auf diesen einen Vorgang optimiert ist. Ganz spannend. Du hast ja AI nicht abgesungen, aber gesagt, das wird nicht so groß, weil die Latenz bei der Inferenz so groß ist. Das heißt, dass so wie wenn wir hier manchmal Latenzprobleme beim Podcast aufnehmen haben, nämlich dass der andere den anderen immer erst fünf Sekunden später versteht, weil das Internet zu langsam ist. So ein bisschen ist das ja auch, wenn man mit so einem AI-Chatbot redet. Du stellst eine Frage und dann vier Sekunden später fängt die Antwort an, getippt zu werden oder gepromptet zu werden. Diese GROK-Chips schaffen es, die Inferenz so zu beschleunigen, dass du innerhalb von 200 Millisekunden oder so die Antwort bekommst, also wo es dann nicht mehr spürbar ist. Also du hättest ein Telefonat mit einem Service-Operator oder so, hört sich auf einmal tatsächlich, da würde ich sagen, um vielfaches menschlicher an als die bisherigen Sprachausgabemodelle. Und das ist, glaube ich, super krass, weil du hast ja vollkommen recht, dass die Latenz bei der Inferenz, also der Ausgabe des Modells, bisher ein Riesenproblem war. Und das, ich will nicht sagen gelöst, aber damit ist man hier einen Riesenschritt vorangekommen, zumindest bei den Modellen, die man darauf laufen lassen kann. Wir können so ein Video in die Show tun, wo das so live von dem Jonathan Ross präsentiert wird. Ich glaube, man versteht dann sehr schnell, was gemeint ist, weil es fühlt sich wie ein menschliches Gespräch an, würde ich sagen. Nicht nur von der Qualität der Sprachausgabe, sondern vor allen Dingen von der Latenz. Also Latenz heißt der Zeitverzug bis zur Antwort, sozusagen.
Und wenn das Video so real ist und es wirklich so einen großen Unterschied hat, dann könnte man ja annehmen, dass sie eher auf dem AI-Trip sind, als es ein Nvidia ist, die ja eigentlich eine Grafikkarte umfunktioniert haben zu dem Trend von AI. Die Lösung war ja bis jetzt immer, ich brauche so viel wie möglich GPUs und vielleicht Dreht sich der Markt jetzt und man braucht auf einmal mehr LPUs?
Ja, also dass der Trend zu den ASICs geht, das ist ja schon relativ lange klar. Deswegen reden wir auch immer wieder darüber, auch wenn es vielleicht nervt. Aber ich glaube, das ist super wichtig, diese dass diese hochspezialisierten Chips, also du kannst halt mit einem Geländewagen Anregen machen als mit einem Formel-1-Wagen. Der Formel-1-Wagen hilft dir halt gar nicht, wenn du Acker fliegen musst. Mit der G-Klasse schaffst du aber wahrscheinlich auf dem Beton gegen ein Auto zu gewinnen, weil es irgendwie einen CW-Wert wie ein Schrankband hat. So muss man sich das ein bisschen vorstellen. Prinzipiell funktionieren die alle sehr ähnlich, aber sind halt hochspezialisiert auf einen gewissen Teil der Arbeit und deswegen können sie das halt deutlich schneller und kosteneffizienter.
Und NVIDIA hat in der letzten Zeit eher die G-Klassen oder die Traktoren verkauft.
Ich würde eher sagen, die bauen SUVs. Aber das SUV ist weder schnell auf der Straße noch geil auf dem Acker. Weil am Ende haben SUVs ja gar nicht viel Bodenfreiheit. Du sitzt nur größer und führst nicht viel im Panzer, aber die Bodenfreiheit ist gar nicht so viel größer als beim normalen Auto oft. Deswegen würde ich sagen, das SUV ist eher das. Es ist natürlich schön, was Universales zu haben. Aber wenn du einen sehr speziellen Task immer wieder ausführen willst, dann ist eigentlich Spezialisierung besser.
Ja, aber bis jetzt die letzten Monate hat ja jeder nur Größe signalisiert, indem er seine ganzen SUVs da zusammengekauft hat.
Ja genau, aber das habe ich ja auch schon erklärt, dass es ja eigentlich ganz cool ist, wenn du ein Problem hast, was du mit Hardware akzelerieren kannst, sofern die Hardware verfügbar wäre, ist das eben eigentlich eine ganz charmante Lösung. Und gleichzeitig ist es halt super gut, dass es Alternativen im Chip-Markt gibt. Und ich meine, das ist super vielversprechend hier. Also du könntest überlegen, ob Nvidia den Inference-Markt verliert, zum Beispiel dadurch. Und dann gibt es immer noch den Trainings-Markt. Und auch der wird noch groß genug sein. Da muss man sich, glaube ich, keine Sorgen machen. 10, 13 Mal schneller sagt ja schon einiges bei Grog. Aber es gibt so eine Webseite, die heißt artificialanalysis.ai. Da kann man sich so auch anschauen, wie die verschiedene Modelle performen, aber auch wie sie auf den verschiedenen Plattformen performen. Es gibt hier so einen Quadranten-Chart, wo man Throughput versus Price siehst. Also wie viele Tokens kriegt man pro Sekunde durch ein Modell? oder durch einen Chip. Und da ist Grog bei 260 pro Sekunde. Zum Vergleich, Microsoft Azure ist bei 20. Oder Perplexity ist bei 60. Amazon Bedrock auch so eher bei 20. Das heißt, Grog ist da Faktor 10, 12 schneller beim Token-Throughput. Also Tokens sind quasi die Datenschnipsel, die man durchs Modell jagt. Und dann auf der Preisskala, US-Dollar pro eine Million Tokens, ist Grog halt bei 70 Cent und Amazon Bedrock zum Beispiel bei 2,10, also beim dreifachen Preis. Microsoft ungefähr beim zweieinhalbfachen Preis. Also sie sind quasi deutlich schneller und damit deutlich leistungsfähiger auch. Plus eben das Latenzproblem fast gelöst, würde ich sagen. Und noch unheimlich billig. Und es ist fast so unglaublich, dass man sich... Also wenn man so dieses Video sieht, erstmal so ein bisschen geht das Bullshit dran. Auch weil du denkst so, hey... Bei Nvidia haben noch nicht alle Leute zwei linke Hände. Warum kommt keiner auf die Idee, dass so geil es ist? Und wie gesagt, es gibt ja andere, wie gesagt, Cerberus macht genau das Gleiche auf ein bisschen andere Art. Nur, dass sie noch Supercomputer bauen, noch größere Platinen. Die stellen sich ja nicht doof an bei Nvidia. Du fragst ja, wie kann jetzt jemand über Nacht, gefühlt über Nacht natürlich nur, 10, 12 Mal schneller sein? Und dann habe ich mal gegoogelt, wer dieser Jonathan Ross eigentlich ist, ob der irgendwie eine shady Vergangenheit ist. Und dann sieht man, das ist der Typ, der die TPUs für Google entwickelt hat. Also der ist Hardware-Engineer bei Google gewesen. Und hat, wenn man sich das im LinkedIn anschaut, Sekunde, habe ich das hier noch offen, was auch ganz geil ist, der ist ab September 2013 Hardware-Engine. Das heißt, Google hat 2013, vor über einer Dekade, angefangen, seine eigenen AI-Chips zu bauen. Ich habe es ja schon immer gesagt, aber ich bin immer bei 2014, 2015 ausgegangen. Ich glaube, 2015 sind die ersten Mal public gewesen, die TPUs. Aber 2013 spätestens, vielleicht sogar noch früher, hat Google angefangen, obwohl er erst der Founder der TPU-Unit oder Co-Founder, das heißt, es muss der Anfang gewesen sein. Also er war Software-Ingenieur bis 2013 und 2013 hat er angefangen, Hardware-Ingenieur für Tensor Processing Units zu werden. Und das war der erste ASIC sozusagen vom großen Tech-Konzern, wo Google gesagt hat, wir machen hier so viel Machine Learning. glauben, wir brauchen eigentlich hochspezialisierte Chips dafür. Das heißt, es ist gar nicht so verwunderlich, dass der jetzt die nächste Weiterentwicklung von Chips baut. Würde man annehmen, über alle Maßen dafür qualifiziert, mit seinem Track Record, dass er quasi die TPUs bei Google gebaut hat. Und von daher scheint das dann doch glaubwürdig zu sein. Und wie gesagt, es ist mega beeindruckend, was Croc schafft. Und es wird, glaube ich, gerade so Also dieses Latenzproblem ist wirklich das Beeindruckendste eigentlich, was sie gelöst haben. Und auch das ist jetzt wieder erstmal nur die erste Iteration. Du weißt ja nicht, was noch kommt. Und am Ende nutzt du halt eins der Open Source Modelle oder per API eins? oder kaufst eine Lizenz und dann kannst du die halt auf der Grog-Infrastruktur laufen lassen. Also du kannst dir aussuchen, ob du irgendwie Lama oder dieses neue Google-Gemma-Modell, was Open Source ist, nutzen möchtest und dann laufen die auf den Grog-Chips halt so super schnell, weil die eben auf die Inferenz, auf das schnelle Output geben, Antworten geben, einfach gesagt, super optimiert sind. Es ist nachvollziehbar.
Hast du das Google-Video geschaut, in dem sie Gemini 1.5 Demo gezeigt haben?
Angeblich werden da Video-Inhalte extrem gut indiziert und durchsuchbar gemacht.
Steffen hat uns gefragt, ob das jetzt nicht die News ist, warum Google ein Game Changer ist und aus dem Rennen als Second Mover nach vorne kommen könnte.
Also ob Ihnen das jetzt selber, also ob das Modell... Jetzt sie sofort dazu bringt, Blinker rechts zu setzen und links zu setzen natürlich und zu überholen. Da bin ich mir jetzt nicht so sicher, aber ich glaube, es ist natürlich schon spannend. Also das Spannende an Gemini Pro oder Gemini 1.5 Pro ist, dass es was man Native Multimodal nennt. Also du kannst... Da wird so gezeigt, du kannst eine Skizze malen. In dem Fall ist es so ein Wassertank, der sich über eine Person ergießt und jemand malt wirklich einfach nur so ein Fass auf Stelzen, ein paar Wasserspritzer und ein Strichmännchen darunter. Und Gemini erkennt... an welcher Stelle in dem Video, was es vorher gelernt hat, sich diese Szene befindet. Und es kann quasi aus einem Schwarz-Weiß-Film erkennen, also es kann auf der Skizze, also es kann es nicht erkennen, aber es kann rausfinden, an welcher Stelle es ist. Ob das erkennt, dass das ist, ist eine ganz andere Frage. Das weiß man ja nicht, was dahinter steht, aber du kannst es mit Text befragen, du kannst es mit Sprache befragen und es untersucht halt Videos und Gemini Pro kann eine Million Tokens inhalieren. Tokens, muss man sich vorstellen, vier bis fünf Zeichen, ein bisschen kürzer als ein Wort. Und eine Million Tokens kann es quasi in das Memory nehmen. Und da reicht zum Beispiel, das reicht für so einen Kurzfilm. Und dann kannst du das auf verschiedenste Weisen befragen. Und damit könntest du natürlich, also was ist der Vorteil? Du kannst jetzt, wir wissen ja, dass die großen AI-Modelle quasi aus allen Büchern der Welt gelernt haben, aus der Wikipedia, aus Common Crawl, so einem Webindex und ein paar anderen Sachen. Wenn du jetzt dich von der Konkurrenz absetzen willst, dann hilft natürlich nur, dass du exklusive Daten hast. Und Google könnte ja zum Beispiel die YouTube-Daten oder einfach Filmbibliotheken von früher inhalieren und damit eventuell nochmal neue Daten haben. Ist jetzt die Frage, ob das dann besser als geschriebenes Wissen ist am Ende von der Qualität, aber das wird sich dann ja zeigen. Und ich glaube, das spielt so ein bisschen bei der Frage mit. Und sofern man glaubt, dass es Video-Inhalte gibt, die insofern exklusiv sind, dass es den Inhalt als Textinhalt nicht gibt, dann könnte es spannend sein. Und es können ja zum Beispiel auch so Schulungsvideos sein oder How-to-fix sowas. Also wie du einen Geschirrspüler reparierst oder eine Fahrradkette wieder auflegst, wenn sie abgegangen ist. Das ist wahrscheinlich in Videos besser beschreibbar. Eine Textbeschreibung hilft ja den Menschen in der Regel nicht. Und ein normales Modell kann aus der Textbeschreibung vielleicht auch noch nicht so gut funktionieren. dann ein echtes Video bauen. Das ist die Frage, ob das irgendwann geht. Insofern könnte es schon eine spannende exklusive Daten sein und Google könnte ein Vorteil von Google werden. Ob es jetzt dadurch OpenAI als Vorsprung einholen kann, weiß ich nicht. Aber ich glaube, es ist hilfreich. Und dann, ich glaube, was auch noch rausgekommen ist, war es Gemini oder Gemma? Ich glaube Gemini, dass es inzwischen synthetische Daten nutzt. Also dass man mit selbst generierten Daten trainiert, um besser zu werden. Was auch dafür spricht, dass die herkömmlichen Daten nicht mehr reichen. Und dann, Sekunde, haben wir eigentlich hier unseren, wir haben hier gar nicht den Gemini-Skandal, sehe ich gerade im, das hast du auch mitbekommen, ne, mit den, achso, Entschuldigung, hast du das mitbekommen mit den Weltkriegssoldaten?
nur eine Headline gesehen, dass sie den Bildeditor wieder rausgenommen haben. Also, dass man sich keine schönen Fotos mehr generieren kann.
Genau, Gemini hat im Moment die Fähigkeit abgeschaltet worden, Menschen zu generieren. Und der Grund war, dass es aufgefallen ist, ich glaube, das, was am meisten rumgegangen ist, ist, jemand hat angegeben, zeig mir mal einen, oder Sekunde, ich lese mal richtig vor, Zum Beispiel, can you generate an image of a 1943 German soldier? For me it should be an illustration. Gemini gibt dann immer so vier Kacheln zurück und man sieht dann vier Leute, die eine stilisierte Wehrmachtsuniform auf jeden Fall haben, das erkennt man sehr gut. Und dann ist aber zum Beispiel ein farbiger, afrikanischstämmiger Mensch dabei und eine Asiatin unter anderem. Und es ist natürlich fast mit Sicherheit auszuschließen, dass viele Asiatin oder Afrikaner in der Wehrmacht gedient haben. Du kannst sagen, es könnte ja jemand von der Kolonie sein oder Japan war ja unser Verbündeter und so. Aber wir wissen, dass es eigentlich unwahrscheinlich ist. Nun, es gibt andere Beispiele. Dann hat jemand so Wikinger zum Beispiel generieren lassen und die waren auch alle farbig und female und irgendwie auf Diversity trainiert. Dann hat jemand gefragt, gib mir mal verschiedene US-Senatoren aus dem um die 1800er. Und da ist dann ein Indianer-Häuptling dabei, jemand mit, ich würde sagen, hawaiianischem oder asiatischem Hintergrund, dann auch jemand, der vielleicht von Sklaven abkommt, zwei davon sind weiblich und auch das war natürlich 1800 einfach nicht wahr, dass US-Senatoren diese Profile gehabt hätten. Das Problem, vielleicht kann man sich inzwischen schon denken, ist, dass Google versucht, diese Bilder so divers wie möglich zu machen, sozusagen aus Diversity-Gesichtspunkten, das heißt, verschiedene Rassen und Geschlechter zu repräsentieren. Und das macht in diesem historischen Kontext natürlich nicht nur wenig Sinn, sondern führt dann tatsächlich zu, wenn man so möchte, falscher Informationen. Und natürlich fällt insbesondere Twitter darüber her und sagt, das ist die woke AI und Ausdruck von Googles Kultur, was es definitiv ist, würde ich sagen. Googles Kultur ist halt genau auf sowas besonders viel Wert zu legen. Und hier führt das natürlich dann zu Fehlern. Was denkst du dazu?
Ja, es wird wahrscheinlich ein Grund sein, warum sie so lange gewartet haben, bis sie das überhaupt rausbringen. Dem war das wahrscheinlich schon bewusst.
Man muss vielleicht noch erklären, der Grund ist natürlich, also warum macht man das jetzt nicht nur, weil man super woke ist, sondern das, was man verhindern möchte, ist natürlich, dass ich sage, zeig mir mal einen Surgeon, also einen Chirurg, weil im Englischen hast du ja quasi keine Geschlechter bei Berufsbezeichnung, wenn ich Nurse, Surgeon, University Professor oder eben Senator suche. Dann würde eben bei einem normalen Modell aufgrund der tatsächlichen Historie und Geschlechterklischees eben immer, oder ein CEO wäre auch ein gutes Beispiel, würde halt immer ein weißer Mann im Anzug kommen, so ungefähr. Oder beim Chirurg eben im Arztkittel, bei Nurse würde eine Schwester kommen typischerweise und eben nicht ein Pfleger. Und um das sozusagen zu verhindern, stellt man halt vier verschiedene diverse Bilder vor, die in der Regel andere Hautfarben und Geschlechter repräsentieren. Was bei vielen Berufen, glaube ich, total sinnvoll ist. Ehrlich gesagt. Und Google macht das tatsächlich nicht nur in den AI-Modellen, sondern wir haben ja auch mal Entdeckt haben wir es nicht, aber wir haben im frühen Podcast mal darüber gesprochen, dass wenn du CEO suchst auf Google in der Bildersuche, dann findest du dort auch deutlich mehr Frauen und verschiedene Hautfarben, als du tatsächlich in Vorstandsetagen sehen würdest. Das heißt, auch da versucht Google das zu repräsentieren. Und das kann man jetzt gut oder schlecht finden. Wie gesagt, das kann halt dann einfach zu sachlich falschen Outputs. Ich glaube, wichtig ist, dass es transparent ist und erklärt wird. Also das Modell erklärt auch. Man kann auch fragen, ich glaube, es hat dann jemand versucht, kannst du einen weißen Amerikaner herausgeben? Und dann hat es gesagt, nee, aus Diversity-Grunden möchte ich das nicht machen. Lustigerweise kannst du es aber mit allen anderen Hautfarben machen. Also du kannst alle Hautfarben generieren, nur weiß darfst du nicht generieren, was natürlich dann... die Alt-Right auch super fanden, um drüber herzufallen. Ich glaube, man muss das auf jeden Fall transparent machen, warum das so ist, insbesondere wenn es einfach zu falschen Ausgaben führt. Aber ich glaube, man muss sich auch damit abfinden, dass hinter jedem Large-Language-Model erstmal im Moment noch auch eine Ideologie steht. Und du kannst ganz einfach sagen, ein Gegenbeispiel wäre eben GROK mit K, das XAI-Modell. was auf Twitter trainiert ist und dann wahrscheinlich anderen Biases unterliegt, würde ich denken. Es gab ja mal diesen Microsoft Chatbot Tay, der auf Twitter trainiert wurde und einfach innerhalb von 24 Stunden anfing, Nazitheorien wieder zu spiegeln und Leute zu beschimpfen. Das heißt, jedes Modell hat eine Art von ideologischer Prägung, glaube ich. Und auch einfach sozusagen auf dem verfügbaren Wissen im Internet zu basieren, Auch das ist eine Art von Ideologie, weil das Internet natürlich auch nicht die Welt richtig widerspiegelt, wenn man ganz ehrlich ist. Ich habe ein schönes Beispiel, Sekunde, habe ich zufällig gefunden diese Woche. Man kann zum Beispiel sehen, was ist die meistgesprochene Sprache der Welt?
Chinesisch, Spanisch.
schon noch Englisch, ich glaube, weil die Zweitsprachigen mitgezählt werden. Dann kommt Chinesisch, Mandarin genau und dann Hindi, in Anführungsstrichen Indisch und dann Spanisch natürlich durch Südamerika. Und wenn du dann aber anschaust, was sind die am meisten online gesprochenen Sprachen? Also einfach gesagt, in welcher Sprache sind die meisten Webseiten verfasst? Dann ist einfach 51% des Internets Englisch und Mandarin ist halt nicht mal 1% des Internets. Und Japanisch ist aber auf einmal zum Beispiel 5%, obwohl es eigentlich einfach relativ, einfach weil die sehr früh im Internet waren, durch WAP, oder war das WAP? Ich glaube... Das heißt, das ist komplett verzerrt schon. Das heißt auch zu sagen, ich lerne einfach nur aus dem Internet, auch das spiegelt nicht die Wahrheit wider. Ich glaube, man muss sich so ein bisschen von dem Gedanken verabschieden, dass man so eine Art Ground-Truth-Modell bauen kann. Elon Musk würde natürlich sagen, das ist die einzige Wahrheit, die er seiner Meinung nach auf Twitter zu finden ist. Aber jegliches Modell hat ein Bias. Und wenn es das Bias des Internet ist, weil es eben Menschen gibt, die im Internet nicht publizieren oder unterrepräsentiert sind. Das heißt, es gibt natürlich Biases, mit denen man eher leben kann und welche, mit denen man weniger leben kann. Und es gibt natürlich verschiedene Flavors. Es gibt Leute... Die hätten vielleicht gern Breitbart-Modell oder Twitter-Modell. Und es gibt halt Leute, die sind total fein damit, das Google-Modell zu haben. Und es gibt vielleicht welche, die ein moderates haben wollen, was irgendwie dazwischen ist, was nicht auf DEI achtet, aber was auch nicht auf Twitter trainiert ist zum Beispiel oder nicht übertrainiert ist auf Twitter. Und ich würde es ein bisschen vergleichen mit irgendwie in den USA TV-Sender oder in Europa Zeitungen. Also Also, du liest natürlich was anderes, wenn du die FAZ oder die NZZ liest, dann liest du natürlich was anderes, als vielleicht in der Zeit hat oder im Tagesspiegel, würde ich sagen. Das heißt, auch da wählst du, also prinzipiell sind das alles Journalisten, das heißt, da wird immer Wahrheit drin stecken, hoffentlich in den allermeisten Fällen. Aber natürlich hat es einen verschiedenen Flavor. Und ob du CNN oder Fox News schaust, kriegst du halt auch zwei Varianten. Wahrheit ist da schon wieder ein kompliziertes Konstrukt. Aber ich glaube, man muss damit leben, dass Modelle zumindest teilweise so funktionieren werden.
Das wäre ja noch das gute Ergebnis, wenn die Modelle eher so sind wie Medienfirmen. Die Gefahr ist halt, wenn die Modelle sind wie Internetplattformen. Also dann sieht halt Google oder TikTok oder Facebook anders aus als bei deinem Nachbarn. Und der Chatbot gibt dir halt immer die Antwort, die er denkt, die die richtige für dich ist, damit du lange mit ihm interagierst.
Das kann durchaus sein. Also du wirst souveräne Modelle haben. Also zum Beispiel würde China oder, keine Ahnung, vielleicht Saudi-Arabien oder so wahrscheinlich ihre Bevölkerung ja nicht auf ein westliches Modell loslassen, weil natürlich Dinge drinstehen, die einfach keine Wahrheit sein dürfen in den Ländern. Das heißt, den Flavor hättest du Du kannst auch einfach, welche haben die, die lügen. Das ist auch eine Option. Sekunde, ich wollte gerade nochmal eins suchen. Verteidiger der Wahrheit hat sich dazu nämlich auch geäußert. Elon Musk hat einen Tweet retweetet mit seinem Standardkommentar concerning. Und zwar geht es da darum, da hat Tim Poole, das scheint ein Podcaster zu sein im weitesten Sinne, Timcast, naja, whatever, hat was retweeted von All Sites. All Sites Now ist ein Twitter-Account. Und die haben ermittelt, Google News Bias has gotten more pronounced since 2022. Also das Bias der Google News Homepage hat sich verändert seit 2022. 63% der Artikel kommen vom Media Outlets, dass diese Seite All Sides als eher left-leaning oder links bewertet, während nur 6% quasi auf der rechten Seite zu verorten ist. Und dieser Tim Kast oder Tim Poole retweetet das mit dem Kommentar, Google is rigging the 2024 election, weil sie linkere Medien auf der Homepage platzieren. Und Elon Musk retweetet das wiederum mit dem Hinweis concerning. Und das wiederum ist, glaube ich, aber auch so eine Art von falschem Both-Sidism. Also A, gibt es höchstwahrscheinlich einfach mehr, in Anführungszeichen, link- oder left-leaning Medien? Liegt denn vielleicht daran... dass du, wenn du dich als Journalist der Wahrheit verpflichtet führst, einfach komischerweise manchmal die Wahrheit schon als links eingestuft wird. Was nicht heißt, dass die Linken die Wahrheit beansprucht haben. Also so soll es nicht verstanden werden. Oder mal ein bisschen komplexer. Sagen wir mal, du würdest jetzt sagen, die Google News Startseite hätte nur acht Plätze. Und damit das ausgeglichen ist, haust du da jetzt die deutsche NZZ-Welt, Junge Freiheit und News, also dieses Johann-Reichelt-Portal, rauf? Oder, keine Ahnung, dieses Wochending, Dingsbums-Woche? Vergessen. Naja, wenn du jetzt mit Absicht da vier rechte Medien drauflegst, dann hast du halt auf einmal Klimaleugnungen und sowas bei so Themen drin und da muss man halt nichts, also wenn jemand fragt, irgendwie ist der Klimawandel real? Weiß ich nicht, ob du vier rechte Seiten unterbringen musst, die in der Vergangenheit behauptet haben, oder zumindest Leute zu Wort kommen haben lassen, wo steht der Klimawandel? Das ist nicht real. Von daher ist es, glaube ich, nicht ganz fair zu sagen, dass bloß weil du nicht gleichmäßig rechte und linke Medien verlinkst auf Google News, heißt das jetzt, dass du entweder versuchst, die Wahl zu beeinflussen. Und es sind übrigens, also hart links ist sogar weniger. Also hart rechts hat 5%, hart links würde ich sagen hat 3 oder 4% nach der Grafik. Nur left leaning sind einfach unheimlich viele. Aber die US-Definition oder diese All-Sides-Definition von Left-Leaning kann man sich auch vorstellen. Ich will auf jeden Fall keine 50-50... Also ich bin sehr dafür, dass rechte Meinungen mehr Platz im Fernsehen finden und so weiter. Oder mehr Debattenformate wieder hast. Und du dadurch Leute wieder mehr auf die Plattform ziehst. Und so ein bisschen das Narrativ, dass Fernsehen Staatsmedium ist und so weiter bekämpft. Aber das heißt nicht, dass es immer 50-50 sein muss. Insbesondere bei Themen... Und wie gesagt, rechts, das kann halt ein Breitbart sein oder so. Du willst jetzt Breitbart in Google News haben, abgesehen davon, dass sie ja nicht ausgeschlossen sind, aber glaube ich zumindest nicht. Ich glaube nicht, dass, sagen wir mal, wenn ich jetzt ein Finanzthema suche und da ist dann das Wall Street Journal und die, keine Ahnung, Financial Times, da muss keine rechte Seite einfach rein bei Google News. Aber wie gesagt, ich glaube, eigentlich haben wir daher... Ich glaube, es ist normal, dass Modelle irgendeinen Flavor haben wollen. Und wem das nicht passt mit EI, der kann das halt abwählen. Ich glaube, es ist immer zu einfach zu sagen... es gibt eine Wahrheit und ein Modell ist prinzipiell falsch. Man muss halt verstehen, warum es diese Ausgaben macht. Und es ist halt eine relativ frühe Version gehabt. Und es zeigt sehr gut, warum Google sich so lange gescheut hat, sowas zu machen. Weil es natürlich einfach ein sehr schlechter Look für Google ist, wenn sie Falschergebnisse rausgeben. Das gab es ja auch früher schon mal, als sie in den Suchergebnissen das erste Mal AI getestet haben, vor acht Jahren oder so. Weil dann auf einmal jemand gesagt hat, Die Dinosaurier können nicht ausgestorben sein, weil Gott oder irgendwie sowas, weil es einfach zu viel in den Trainingsdaten drin stand, weil die wahrscheinlich aus irgendwelchen christlichen Narrativen kamen. Und das Spannende ist natürlich, dass Google hier ganz klar nicht eine Plattform ist, sondern editiert auch. Also bisher ist Googles Roller überwiegend gewesen. Einfach nur Suchergebnisse anzuzeigen und manchmal Auszüge davon hervorzuheben, was ja auch schon editorielle Kontrolle ist, die du aussiebst eigentlich, dass du sagst, ich entscheide mich für dieses Ergebnis und da hebe ich die vermeintliche Antwort hervor. Das heißt, du spielst schon eine Rolle. Und in dem Fall von AI verändern sie zwar nicht die Wirklichkeit, aber sie verändern das, was dir als Wahrheit oder als Ausgabe des Modells verkauft wird. Das wird ja hier quasi händisch manipuliert. Was man sich gut vorstellen kann, ist, dass das zum Beispiel einer der Teile ist, wo die synthetischen Trainingsdaten eine Rolle gespielt haben. Nämlich, dass sie für alle von gewissen Bildern... Also würdest du dir alle Bilder des Internets anschauen, sind die wahrscheinlich von weißen Männern dominiert. Und jetzt könnte man sagen, generiere mir für jedes Bild so lange Alternativen in anderen Hautfarben, bis sozusagen Equity gibt und alle gleich repräsentiert sind. Und dann lernst du auf den Daten neu. Und das könnte zum Beispiel zu so einer Ausgabe führen. Oder du kannst natürlich auch einfach sagen, wann immer das Ergebnis ein weißer Mensch ist oder ein weißer Mann ist, dann generiere automatisch noch drei weitere Varianten mit verschiedenen Hautfarben und Geschlechtern. Aber so oder so ist es ein Eingriff, den Google da vornimmt. Das stellt sie, wie man sieht, vor neue Herausforderungen, sodass sie es jetzt vorerst gestoppt haben und je nachdem, wo man schaut, auch durchaus massiv zwischen ausgelacht und angefeindet werden dafür.
Im S1-Fighting von Reddit zufällig, wie da die Demografie aussieht von den Nutzern?
Sind das nicht auch alles... Naja, es sollte 95% männlich sein, nehme ich an. Was Hautfarben angibt, bin ich mir nicht so sicher. Genau, wo wir gerade bei Trainingsdaten sind. Also wir haben ja schon mal darüber gesprochen, dass Reddit ja ein IPO antreibt und jetzt ist das S1-Fighting, das ist das quasi Verkaufsprospekt des IPOs, öffentlich geworden. Und darin findet sich interessanterweise, berichtet The Hollywood Reporter, dass Sam Altman einen relevanten Anteil, und zwar den drittgrößten, an Reddit hat. Also es war bekannt, dass die Newhouse Family, die hat so ein Vehicle, das heißt Advanced, denen gehören über 30% an Reddit, das war bekannt. Und der chinesische Technologiekonzern Tencent hat 11%, auch das war relativ bekannt. Aber jetzt hat sich herausgestellt, dass der nächstgrößte Shareholder, Sam Altman ist, der 8,7% der Firma hat. Sondern wäre er jetzt damit ein aktivistischer Investor, wäre das ein relativ hoher. Also mit 3-4% kannst du dir in der Regel Boardseats oder sowas schon einklagen.
Und hat er das zufällig? Also hat er damals investiert und hat deswegen die Sache noch? Oder hat er sich jetzt über die letzten Monate Secondaries dazu gekauft?
Also es war bekannt, dass er investiert ist in Reddit. Aber mit diesem relativ hohen Anteil hat niemand gerechnet. Das heißt, er hat vermutlich Secondaries von anderen Parteien hinzugekauft. Und wie gesagt, 8,7 Prozent, denkst du jetzt nach deutschem Recht so, unter 25 Prozent spielst du eigentlich keine Rolle bei ganz vielen Sachen. Aber wenn das eine Public Company ist, kannst du mit 9% sehr viel beeinflussen, würde ich sagen. Es kommt vor allen Dingen auch davon an, ob es andere größere Shareholder gibt und ob die eventuell ihre Anteile verkaufen. Und du kannst dann ja auch noch weitere Anteile hinzukaufen, sogar wenn es an der Börse ist. Und ich glaube nicht, dass Sam Ortman das als Hobby macht, sich bei Reddit finanziell zu... Und der Wert der Reddit-Daten muss Ihnen bekannt sein. Wir wissen ja, dass in den Trainingsdaten der meisten AI-Modelle ist neben diesem Common Crawl, dem großen Google-Index und den Büchern und der Wikipedia, ist ein Modul drin, was super spannend ist. Das heißt Weblinks. Und das ist zwar von der Token-Anzahl her relativ klein, ich glaube nur ein Prozent, aber es wird fünffach übergewichtig. Man geht davon aus, dass die Qualität dieser Daten fünfmal besser ist, als die der eigentlich sogar sechsmal, weil die Der Common Crawl wird, glaube ich, 20% discounted. Also es wird 20% weniger wichtig als der Durchschnitt gewichtet. Während die Reddit-Links fünfmal geboostet werden quasi. Diese Reddit-Links, das sind Webseiten, die von Reddit verlinkt worden sind und dort hochgewotet wurden oder besonders gut bewertet wurden. Und das ist quasi so eine Art Qualitätsfilter. Du kannst dir vorstellen, das Internet ist einfach eine Bibliothek, wo lauter rausgerissene Seiten drin liegen. Und Reddit ist aber so eine Art Pinnwand, wo die besten Artikel festgepinnt sind. Und deswegen ist das halt so viel wertvoller als Trainingsdaten, weil du davon ausgehen kannst, dass es relativ sicher bessere, verlässlichere, spannendere Daten sind, die auf Reddit haben. Und unter anderem, um eventuell den Zugang nicht zu Reddit zu verlieren, könnte es natürlich... Ich war apropos hochgevotet bei Reddit. Es ist ein historischer Tag. Ich habe ja auf LinkedIn, letzte Sendung hatte ich ja gerantet, dass ich es erschreckend finde, dass die Bruttospielerträge der Glücksspielbranche in Deutschland, und das sind einfach die akkumulierten Verluste aller SpielerInnen, größer sind als das, was in ETF-Sparpläne gesteckt wird in Deutschland. Zumindest für das Jahr 2022 und 2023 noch. 2024 könnte es glücklicherweise andersrum aussehen. Und das habe ich dann auf LinkedIn nochmal in einen LinkedIn-Post verfasst, der auch relativ gut funktioniert ist. Und das ist auf reddit.com slash finanzen oder slash rfinanzen, also auf dem Subreddit finanzen, das ist sozusagen die größte deutsche Finance-Community, ist das, also es war zuerst auf Mauerstraßenwetten, muss man sagen. Dort hat es 122 Upvotes bekommen und ist jetzt auf rfinanzen halt 332 Upvotes bekommen, was relativ... vieles, würde ich sagen, für ein deutsches Reddit und 78 Kommentare. Also auch damit wird jetzt demnächst dann höchstwahrscheinlich AI trainiert. Und das wäre übrigens, es gab letzte Woche, glaube ich, so einen OMR-Artikel über wie würde man eigentlich Generative AI, also wie sieht SEO für Generative AI aus? Und dadurch, dass Reddit User Generated Content ist und dass es fünfmal übergewichtet wäre, wäre natürlich das die einfachste Möglichkeit, AI-Ergebnisse zu manipulieren. Also sagen, du möchtest der AI beibringen, dass der Doppelgänger-Podcast der erfolgreichste Business-Podcast Deutschlands ist. Dann müsstest du das nur oft genug auf Reddit schreiben und hochvoten wahrscheinlich und könntest die AI damit überzeugen, dass das wahr ist. Weil alles andere, was im Netz steht, wie gesagt, 20% discounted wird und das, was auf Reddit steht, 5x verstärkt wird. Das heißt, der effizienteste Weg... Wäre entweder falsche Wikipedia-Artikel zu platzieren, wofür es ja auch Services gibt, die sowas machen, oder Reddit zu manipulieren, indem man dort mithilfe, es gibt auch Engagement-Pots für Reddit natürlich, wo man sich verabreden kann, Dinge hochzuvoten. Und so könnte man die Ausgabe von AI quasi verändern. So, wie kamen wir hier hin? Von Sam Altman, ja. Also, der hat 9% an Reddit und ich meine, es ist vollkommen klar, dass Trainingsdaten so das neue Gold werden. Und je exklusiver die sind, desto besser. Es gibt einen ganz spannenden, auch jüngsten Artikel vom Reuters-Institut, wie heißt das? Ja, Reuters-Institut für Journalismus, glaube ich. Das hat untersucht, wie viel Prozent der News-Seiten eigentlich schon den Open-AI-Crawler und den Google-AI-Crawler ausschließen. Und zwar ist es fast die Hälfte. Also im Dezember, also wahrscheinlich ist es Status heute die Hälfte. Im Dezember 23 haben 48% der am meisten genutzten News-Seiten der Welt, nee, nicht der Welt, sondern in 10 untersuchten Ländern, den OpenAI-Crawler schon ausgeschlossen, den Google-Crawler haben 24% ausgeschlossen, also den Google-AI-Crawler. Fast alle, die Google ausgeschlossen haben, haben auch OpenAI ausgeschlossen. Und es unterscheidet sich spannenderweise sehr stark von Land zu Land. Also OpenAI haben in den USA 79%, also 4 von 5 Seiten ausgeschlossen. In Mexiko oder Polen nur 20%. In Deutschland muss das Spitzenreiter sein, 60%. Drei von fünf Webseiten haben den Google-AI-Crawler ausgeschlossen. In Polen oder Spanien sind es nur 7%, also eine von 13%. Ganz interessant. Also jeder versucht so ein bisschen seine Daten zu horten. Und in dem Kontext kann man auch diese Videofrage von Steffen von Brevo verstehen, dass Das ist natürlich spannend sein kann, wenn... Aber lustigerweise, ich habe mal geschaut, YouTube blockt keine Robots. Das hat mich auch gewundert. Beziehungsweise vielleicht machen sie es irgendwo anders aufs Server-Ebene, dass sie Crawling verhindern, indem sie den Hard-Bouncen, den Bot, wenn der kommt. Also du kannst sagen, beachte die Robots.txt. Du kannst es per X-Robots-Header-Tag machen. Das habe ich gar nicht untersucht eigentlich. Oder du kannst auch einfach auf Hardware-Ebene Hard-Blockieren. Also dass du siehst, wenn... aus, wo auch immer der OpenAI-Crawler zu Hause ist, da Besuch kommt mit der IP oder dem User-Agent, dass du den direkt blockst oder gemeinerweise sogar falsche Daten gibst. Das wäre noch lustiger.
Lass uns zu Earnings gehen. Wenn wir schon die ganze Zeit über AI sprechen, ab zu Nvidia. Da kamen hier und da so ein paar Fragen und wir haben ja auch in der letzten Folge ein bisschen drüber gesprochen, ob Nvidia den ganzen Markt und AI den ganzen Markt oben hält. Wie sieht es aus? Wie sind die Zahlen? Und glaubst du, Nvidia ist unsere Hoffnung, dass der Markt weiter oben bleibt?
Ja, es gab auf jeden Fall so lustige Memes, dass Nvidia mehr oder weniger den gesamten Markt am Leben hält und vor allem die Angst, dass wenn die mal keine guten Ergebnisse liefern, dass dann der Markt eben auch ganz schnell zusammenbrechen könnte. Und tatsächlich hat, ich hatte ja letztes Mal noch behauptet, dass es schwer ist vorauszusagen, ob sie die Ergebnisse schlagen oder nicht. Aber ich hätte gedacht, dass wenn sie schlagen, dann ist die Wahrscheinlichkeit, dass es ausschlägt, bei einer Enttäuschung größer als bei einem Earningsbeat, also einer Übererfüllung der Earnings. Und ich habe natürlich Unrecht behalten. Das heißt, man weiß nicht, ob es nach unten nicht auch so stark gegangen wäre. Aber sie haben tatsächlich gestern 13% zugelegt oder so und einfach nochmal so 100, wie viel Prozent war das, wie viel Market Cap, paar hundert Milliarden Market Cap hinzugewonnen. Also zeigt sich, und sie sind jetzt, herrscht ja 2 Trillion, sind jetzt 2 Trillion Company schon.
Hier steht es 2 Trillion, also Nummer 1 Microsoft mit 3, dann Apple mit 2,8, dann Saudi Aramco mit 2 und dann Nvidia. Danach kommt Amazon Alphabet.
Heute schon wieder 2-3% hoch. Also ich habe gelesen, es ist so viel wert wie das kanadische GDP, was natürlich ein Quatschvergleich ist. Aber die Zahlen waren überragend gut, wie so oft bei Nvidia. Und wie gesagt, sie sind zweistellig gestiegen. Also es funktioniert offenbar dann doch. Also der Umsatz ist gegenüber dem vorher um 265% und das ist mehr als verdreifacht, relativ einfach auf 22,1 Milliarden gestiegen. Im Q4 letzten Jahres waren es noch 6 Milliarden, jetzt machen sie einfach 22 Milliarden. Die Kosten des Umsatzes, der Cost of Revenues, sind nur um 140% gestiegen. Also Umsatz 265 hoch, Kosten nur 140. Daraus könnte man schließen, dass es sehr stark aus Preiserhöhungen getrieben ist, der Mehrumsatz. Wir wissen, dass diese GPUs so stark nachgefragt sind, dass... Beim Earnings Call wurde gefragt, du hast ja gehört, dass gefragt wurde, wie die eigentlich entscheiden, wer welche bekommt. Also bekommt die Meta, bekommt die Azure, bekommt die eine Forschungseinrichtung an der John Hopkins?
Die Fragen wurden alle eigentlich kaum beantwortet. Also es wird alles sehr fair verteilt und man guckt, wer die jetzt so braucht und es ist alles super fair und sie sind auch bald eine Softwarefirma eigentlich und es ist alles super gut. Das waren so die Antworten auf alle Fragen.
Eigentlich müsstest du sie verauktionieren. Das ist eigentlich das Effizienteste.
Dynamic Pricing auf Chips. Ähnlich wie bei Uber. Schön. Ich brauche sie jetzt.
Ich zahle das Doppelte. Das funktioniert natürlich. Wenn die Nachfrage mal nachlässt, ist es natürlich doof. Dann willst du wieder planbare Abverkäufe haben. Aber ansonsten musst du eigentlich alle zwei Wochen einen Tender machen. Und dann werden die so in Stückzahlen entweder 100 oder 1000 Stück am Stück verkauft oder nicht.
Der Einkauf von Google und Meta und so, würde da mitmachen?
Du hast ja keine andere Wahl.
Einzige Chance zu sagen, hier, ich habe die SUVs im Hintergrund, ich kann das mit der AI.
Also wie gesagt, alle versuchen sich zu diversifizieren und bauen auch ihre eigenen Chips parallel, aber gleichzeitig, wenn du wachsen willst, brauchst du gerade noch die Nvidia GPUs. So, R&D-Kosten haben sie ganz moderat, also Forschung und Entwicklungskosten ganz moderat auf 2,5 Milliarden erhöht, das sind 26% mehr im Vorjahr. Insgesamt geben sie noch keine 10 Milliarden für Forschung und Entwicklung aus im Jahr, aber kommen so in die Richtung, nächstes Jahr werden sie 10 Milliarden F&E haben. Dann Sales, General und Admin. Ich würde behaupten, Sales braucht man nicht mehr. Obwohl, es gibt ja ein paar andere Geschäftsbereiche. Aber die Datacenter-Sparte habe ich nicht das Gefühl, dass die gerade... Das ist so lustig, warum arbeiten da noch Leute im Sales?
Die Telefonate annehmen.
Das ist der sinnloseste Job der Welt. So ein Nachrettungsschwimmer bei der Schwimm-WM vielleicht, aber... Die steigen auf jeden Fall auch nur um 14%. Also der Umsatz war 43% und die Kosten, also die operativen Kosten steigen insgesamt alle Blöcke zusammen nur um 23%. Kann man sich vorstellen, was das für das Ergebnis heißt. Also wir fangen mal mit der Rohmarge an. Ich habe immer gesagt, die geht Richtung 80%. Wir sind jetzt bei 76% und die wird auf 77 im ersten Quartal steigen und ich denke, wir werden die 80 noch sehen im nächsten Jahr. Und unterm Strich, also nach allen Kosten, die operative Marge, operative Marge ist 62%. Das gibt es, glaube ich, ich glaube Mastercard oder Visa hatte mal so um die 60 in allerbesten Zeiten. 61,8. Sekunde, wo ist sie gerade? Nee, ist bei 64 sogar. Ja, genau. Das ist das einzige Unternehmen, was ich kenne, was so viel deutlich mehr als 50%. Das heißt, von 10 Dollar Umsatz behältst du einfach 6 Dollar als Überschuss übrig. Da musst du sonst Koks für handeln oder so, glaube ich. Keine Ahnung, da bin ich jetzt auch kein Experte drin. Vor 6 Quartalen im Q2 2023 war die operative Marge noch 7%. Und jetzt sind wir bei 62% operative Marge, also es ist ein kompletter Geldvulkan. Das Net Income, also nach allen anderen Kosten noch, die nicht operativ sind, hat sich fast verneunfacht, 770%. Mehr Net Income, das war im Vorjahr 1,4 Milliarden, jetzt sind wir bei 12,3 Milliarden pro Quartal. Das heißt, im nächsten Jahr werden sie wahrscheinlich 60 Milliarden Net Income machen, könnte ich mir vorstellen. Komplett gaga. Können auch rauschen, es ist aus dem operativen Cashflow, es ist bei 28 Milliarden auf Sicht von 12 Monaten. Krieg geht aber auch eher Richtung 40, 50 Milliarden. Free Cashflow ähnlich. Das Datacenter-Segment hat sich verfünffacht, also der Nvidia hat fünf Segmente, Data Center, Gaming, also Gaming sind die alten Grafikkarten für Computer oder Grafikchips für Computer, entweder Onboard-Grafikchips oder Grafikkarten. Dann Professional Visualization, das ist ein sehr, sehr kleines Segment und Automotive, das ist auch ein sehr, sehr kleines Segment. Also die sind insgesamt keine 10% des Umsatzes oder keine 5%, aber Data Center ist jetzt mit Abstand das Größte und das wächst. hat sich verfünffacht gegenüber dem Vorjahr. 3,6 Milliarden, letztes Q4 dieses Jahr 18,4 Milliarden. Also es ist, keine Ahnung, ich würde behaupten, nicht mal im Internetbuch hat man sowas gesehen. Und es werden jetzt wieder so Worte wie New Economy genutzt. Wie gesagt, eigentlich, ich meine, sie sind ein Monopolist und einer mit Übernachfrage. Und die Frage ist auch, würde Nvidia... Also als Monopolist hast du ja eigentlich gar nicht den Anreiz, die Nachfrage komplett. Das ist ja der Grund, warum man Antitrust hat, ist, weil der Monopolist nie genug produziert. Ich will nicht unterstellen, dass NVIDIA zu wenig, also sie produzieren ja sowieso nicht selber. Also theoretisch könntest du fast sagen, auch das ist ein Grund, warum wir Konkurrenz brauchen. Weil du dich ja irgendwann in diese Margen verliebst. Und warum sollst du noch mehr produzieren? Weil das würde ja heißen, die Margen sinken irgendwann. Also du willst ja jetzt diese hohen Margen eigentlich behalten und trotzdem mehr produzieren. Aber irgendwann führt das dazu, dass du halt nicht mehr die volkswirtschaftlich optimale Menge produzierst. Aber wie gesagt, zum Glück haben wir ja Grog und Zebras und andere, die Intel versucht ja auch eine Foundry-Sparte aufzubauen, wo sie für andere produzieren. Und dann hast du hier diese Supermicrocomputer oder wie heißt das? Supermicroconductors? SMCI oder wie die heißen? Dieser Meme-Stock. Es war immer wieder 10% runter. Supermicrocomputer heißen die. die dieses Jahr sich schon verdreifacht haben und auf Sicht von einem Jahr sich verneunfacht haben.
Ich habe schon ein bisschen angefangen mit Nvidia heute Vormittag und dann bin ich so abgetrifftet, auch durch die Hörerfragen.com 2000. Im Frühjahr 2000 waren die Märkte auch auf all times hoch. Und dann zwischen dem Jahr wurden wohl die Firmen wie so von einem Sensenmann zerlegt. Also die größten Verlierer damals, kannst du dich daran noch erinnern?
In Deutschland oder USA?
Ja, USA.
Ähm, Cisco? AOL? Ja.
Die beiden, die hier in dem Artikel drin waren, waren zum einen, an einem Tag hat Apple 50% verloren. Im September.
Apple.
Und... Intel hat eine Woche vorher 22% verloren, an einem Tag. Und dann wird ja in den Newsberichten, die jetzt da sind, da heißt es ja immer so, ja Bewertungen und so, die sind so stabil oder so, aber so krass war jetzt, also bei Intel zum Beispiel, jetzt irgendwie Price to Sales war auch irgendwie 1998 auf dem Hoch bei 18%. Und dann ist es halt runtergekommen wieder. So krass überbewertet waren die damals irgendwie gefühlt auch nicht.
Intel ist jetzt bei dreimal Preis-Sales. Wenn sie irgendwann mal einen Konkurrenten schaffen zu bauen, wäre das ja fast vergleichsweise günstig. Aber in der Vergangenheit sind sie nicht durch besonders schlaue Entscheidungen aufgefallen. Beziehungsweise ist es auch immer sehr zyklisch gewesen. Also Nvidia ist, was haben wir gesagt, 2 Trillion Dollar und 27 Sales habe ich gehört. Also aktuell sind sie bei 32 Price Sales, Trading 12 Months, aber muss natürlich vorausschauen. Ich gucke jetzt in meinen Crystal Ball und ich habe ja gesagt, dass sie das nächste Jahr wahrscheinlich bis zu 60 Milliarden Überschuss übrig bleiben könnten. Dann wäre es ja aber immer noch 35 Mal Ist gar nicht so viel anders. Sekunde. Achso, ich habe Überschuss. Dann wärst du bei 33 mal Cashflow. Das wiederum wäre gar nicht so abstrus, glaube ich. Sekunde. Also Sie haben jetzt Operating Cashflow von 11, 12. 12,5. Also ich würde sagen 50. Schaffen Sie, dann hätten Sie ein 40er Cashflow Multiple. Ist nicht so abwegig. Und ich glaube, der Vergleich mit 2000 hält, da ging es halt auch um viele Firmen, die einfach kein Geld verdient haben. Apple und Intel gehörten jetzt nicht dazu, aber...
Ich glaube, es geht voll darum, weil damals war es ja auch so, dass Unternehmen angefangen haben, vorsichtiger mit Computereinkäufen. Und das hat dann Intel und Apple und so zerrissen. Und das Reiche hast du jetzt auch. Es hat sich jetzt jeder diese SUVs da hinten hingestellt und versucht jetzt damit was zu machen. Merkt, oh, Latenz und so, oh, es ist doch alles nicht so einfach. Die Pilots funktionieren nicht so ganz. Jetzt kommt die Latenz wieder.
Also meine Rechnung ist insofern falsch. Ich glaube für das nächste Jahr habe ich recht. Also wahrscheinlich schaffen sie es 50 Milliarden natürlich Net Income oder Free Cashflow zu generieren nächstes Jahr. Da bin ich relativ optimistisch. Aber du kannst das eben nicht mal 33 vorausrechnen oder mal 40. Weil wenn die Konkurrenz, also wenn entweder die Nachfrage nachlässt oder die Konkurrenz, mehr Konkurrenz hinzukommt, was ja auch zu weniger Nachfrage führen würde theoretisch, dann wäre es ja nicht nur so, dass das die Wachstumsgeschwindigkeit nachlässt, sondern vor allen Dingen würde es auch zu einer Margenkompression kommen. Also die 76% Rohmarge oder im nächsten Jahr Richtung 80, die hast du ja nur, weil es die Übernachfrage gerade gibt. Und die 56% Profitmarge oder 61% operative Marge hast du auch nur... weil es gerade diese Übernachfrage gibt. Das heißt, du hättest eigentlich gleichzeitig eine Verlangsamung und eine Margenkompression und deswegen ist es eben das Multiple doch sehr ambitioniert. Aber der Bull Case ist halt, wir haben noch gar keine Ahnung, wie viel AI Compute wir brauchen werden in der Zukunft. Wenn es mehr Use Cases gibt, wie man AI sinnvoll einsetzt, dann wirst du noch so viel mehr Chips brauchen, dass es für alle anderen dauert halt unheimlich lange, um auf das Level zu kommen. Genau, du kannst ja nicht von heute, also sagen wir mal, Grog wird jetzt super erfolgreich, die brauchen ja auch erstmal Kapazitäten, das alles produzieren zu können und so. Ich glaube, es wird noch ein bisschen dauern, aber ich würde auf jeden Fall nicht gegen NVIDIA wetten, ehrlich gesagt. Der Rückenwind ist zu groß, glaube ich. Und wie gesagt, 13 Prozent. Oder was hat es denn jetzt gestern gemacht? Hast du das irgendwo? Sekunde. Ich habe so 13 Prozent im Kopf. Ich habe 16 im Kopf. 16 sogar? Ich schlage 17. Warte. Finde ich nicht so. Auf jeden Fall zweistellig. Und wie gesagt, zweistellig heißt in dem Fall ja schon mal mindestens 200 Milliarden. Neue Market Cap. Ja, aber man sollte nicht unterschätzen, dass, wie gesagt, der Umsatz ist hier gar nicht so viel höher als die Rohmarge, weil die Rohmarge hoch ist. Das heißt, wenn der Umsatz nachlässt, kann die Marge sich ganz schnell auch zusammenfalten. Ich würde nicht dagegen wetten. Aber wenn du dir anguckst, die letzten fünf Jahre über 1900%.
Im Vergleich Tesla 900%, Microsoft 266%. Year-to-date 63 Prozent.
Gut, wenn man die einfach gehalten hat oder gar bespart hat oder so. Freue ich mich für jeden, der es gemacht hat. Das ist natürlich der... Also, das ist so ein bisschen der Zockertraum. Fakt ist ja, dass jeder, der MSCI World hat, hat ja auch NVIDIA da drin. Das ist ja einer der Gründe, warum... Was macht der MSCI World dieses Jahr bis jetzt? Ey, solange Google mir noch nicht die Year-to-Date-Performance vom MSCI World sofort zurückgeben kann, Ich klicke mich wieder durch so eine Seite hier durch. Sekunde. Fünf Prozent.
Gar nicht so viel. Da ist Nvidia besser gelaufen. Was hast du noch für Earnings für uns dabei?
Du darfst so ein bisschen aussuchen. Ich lese es mal vor und du sagst, was dich interessiert. Walmart haben wir schon gemacht. Was sagst du? Genau. Home Depot interessiert uns glaube ich nicht. Palo Alto Networks. Da ging es über 20% runter. Palo Alto Networks ist eine Cyber Security Firma. Die haben eigentlich ganz vernünftige Zahlen geliefert. Wachstum 19,3% nach 20% im Vorquartal. Rohmarge 5%. hat sich verbessert um 3 Prozentpunkte von 71,8 auf 74,7 Prozent, also eigentlich auch sehr gut. Operative Kosten sind ein bisschen stärker gestiegen mit 24 Prozent. Das eigentlich alles gar nicht so schlecht, aber sie haben dann in der Guidance so eine Softness angekündigt und dann war damit der Markt gestiegen. sehr unglücklich, weil sie gesagt haben, sie glauben, dass sie nicht so stark wachsen werden im nächsten Kalenderjahr. Und das führt dann zu Enttäuschungen. Ich glaube aber prinzipiell ehrlich gesagt, dass das ein bisschen übertrieben war. Ich halte Palo Alto selber nicht, aber es ist ja so in manchen Cyber Security, wer sich ein Cyber Security ETF gekauft hat oder so, Da ist das mit drin. Ich glaube an den Sektor trotzdem sehr stark in Zukunft. Wir geben noch viel zu wenig Geld für Cyber Security insgesamt aus. Ich würde jetzt nicht sagen, dass es eine Nachkaufgelegenheit ist, aber ich würde mich jetzt nicht hart verunsichern, wenn ich die hätte. Prinzipiell sehen die aktuellen Zahlen eigentlich noch sehr gut aus, obwohl, ich gucke nur, sind irgendwelche Sondereffekte in den Kosten? General Admin ist ein Sondereffekt drin. Siehst du, die sind nämlich gar nicht so stark gestiegen. Ja, dann sind es sogar sehr gute Zahlen. Also es müssen so irgendwie 180 Millionen, 175 Millionen Sondereffekte in den German Armin drin sein. Ansonsten hätten sie eine zweistellige operative Marge. Also eigentlich alles gut. Muss man mal gucken, ob es jetzt wirklich so schlimm wird, wie sie gegeidet haben. Oder ob sie nur konservativ waren. So Teladoc müssen wir nicht machen, ist langweilig. Wix ist auch langweilig.
Die einzigen beiden, die mich wirklich interessieren, ist, was war bei Booking los?
Das scheint ja ein bisschen negativ gewesen zu sein.
Und was war bei Square los?
Lass mal gucken. Wayfair können wir machen, Square können wir machen, Mercado Libre müssen wir machen, Nubank müssen wir machen und Booking. So merkt ihr die immer. Achso, und ZipRecruiter natürlich. Die habe ich im Newsletter vergessen, hatte ich nicht mal angekündigt. Weil die so klein sind, werden die immer nicht angezeigt. Booking. Fangen wir vorne an. ZipRecruiter. Booking Holdings heißt die Firma, dahinter versteckt sich Booking.com, früher war es Priceline-Konzern, sind 18% gewachsen, vor Quartal war ein bisschen stärker noch, über 20%, jetzt nur noch in Anführungsstrichen 18%. Gegenüber 2019, müsste man eigentlich auch mal berechnen, Sekunde, ich mach das mal kurz. Kann das jetzt eigentlich schon eine AI, dass ich einfach sage, das kann eine AI eigentlich schon, oder? Einfach sagen, berechnen wir mal den Wachstum gegen 2019. Bestimmt. Muss man mal dieses Microsoft da kaufen. Also 43% über 2019. Das ist jetzt eigentlich auch so hocheinstellige Kager nur. Wir sind ja vier Jahre hinter 2019 schon. Also eigentlich nur einstellig gewachsen, wenn man es genau nimmt, zur Vor-Corona-Situation. Ja, und das geht so ein bisschen runter. Dann sind Ihre operativen Ausgaben, die sind um 54% hoch, das heißt, da ist auch wieder irgendein Einmaleffekt beim Personal. Achso, Sie mussten so eine, wie hoch war die Strafe? In Spanien haben Sie, glaube ich, eine Strafe bezahlt. Aber ich weiß nicht, ob das der Einmaleffekt ist. Sekunde Booking Penalty. 530 Millionen Penalty in Spanien wegen Wettbewerbsverstößen oder vermeintlichen. Sie widersprechen dem noch oder gehen in Berufung. Und zwar wegen dem, was man auch außerhalb von Spanien kennt, nämlich dass sie angeblich den Hotels quasi verbieten. auf ihrer eigenen Website oder auf einer anderen Website als Booking günstigere Angebote als auf Booking zu machen. Das wird als wettbewerbswidrig angesehen, weil es dem Wettbewerb schadet. Und dafür müssen jetzt 530 Millionen wahrscheinlich zahlen in Spanien. Und ich nehme an, dass das, oder warum sind die Personalkosten, warum würde man das im Personal machen? Personalkosten sind so hoch. Naja, das sah auf jeden Fall nicht so gut aus. Dann kann man das Adjusted EBITDA, also 18% im Vorjahr, also da wären die Einmaleffekte ja nicht drin und ansonsten gibt es jetzt wenig, was Buckner wegadjustieren würde. Das ist eigentlich gar nicht so schlecht. Sie sind auch relativ optimistisch, was die Zukunft angeht. Im Earnings Call haben sie gesagt, at the start of 2024 we continue to see resiliency in global markets. Vielen Dank. Das heißt, die glauben, das ist ein gutes Jahr für Leisure-Travel. Marketingkosten sind nur 9% gestiegen, also unterdurchschnittlich im Vergleich zum Umsatzanstieg. Das ist eigentlich auch gut. Die sind runtergekommen, das stimmt, aber ich überlege gerade, warum. Also die Strafe war natürlich überraschend. Ich glaube, die Strafe, weil die Zahlen sind gar nicht so schlecht. Ich glaube, es ist die Strafe. Und für Booking sind 500 Millionen natürlich, das sind halt immer Einmaleffekte und deswegen nicht so wichtig, weil es das Langfristige Ergebnis gar nicht verändert. Es sei denn, man dürfte eben dadurch jetzt dann irgendwann, muss man natürlich das Verhalten auch einstellen. Aber 500 Millionen wäre natürlich schon ganz relevant für Booking, könnte man sich vorstellen. Und die Strafe ist mit dem Earnings Call bekannt geworden, deswegen gehe ich davon aus, dass es weniger an den Earnings als vielmehr an der Strafe liegt, dass die Aktie runtergeht, weil die Bookings, also Bookings sind ja auch da, wie bei Airbnb, die vorausschauenden quasi Umsätze für nächstes Jahr. Die Bookings liegen 16% über Vorjahr. Das heißt, wie gesagt, mit 20% rechnet bei Booking keiner mehr und 16% ist eigentlich für das derzeitige Marktumfeld ein guter Booking Outlook, würde ich sagen. Ich glaube, die Strafe ist, warum man die Aktien ein bisschen runtergeschickt hat. Wobei, wie gesagt, eine Einmalzahlung sollte eigentlich gar keinen so großen Einfluss haben. Aber man könnte sich natürlich vorstellen, dass andere Staaten auf eine ähnliche Idee kommen. So, dann machen wir mal mehr Carlo Libre. Mecca Libre ist die größte Shopping-Plattform von Südamerika. Also man könnte sagen, es ist Amazon von Südamerika, Brasilien, Argentinien und so weiter. Und eine der erfolgreichsten E-Commerce-Plattformen überhaupt, kann man ruhig auch sagen. Also ihr Innenumsatz, oder wir fangen mal mit dem Plattform-Umsatz. Plattform-Umsatz ist um 40% gestiegen gegenüber dem Vorjahr. Also auch krasse Wachstumsraten noch, so wie wir sie in Europa nicht mehr kennen aus dem E-Commerce. 40% mehr Plattformumsatz GMV, Paymentumsatz sogar plus 57% und ihr Innenumsatz ist um 42% gestiegen, also nochmal ein klein bisschen mehr. Und ihre Kosten, da gibt es auch einen Einmaleffekt irgendwie bei Produkt und DEV. Sind es 200 Millionen, 300 Millionen mehr als es sein sollten? Ohne die wäre das Ergebnis sonst ganz gut eigentlich. So ist jetzt das Ergebnis. Also der Gewinn war letztes Jahr 350 Millionen, ist jetzt nur noch 240 Millionen. Aber auch das ist auf einen Sondereffekt. zurückzuführen. Ansonsten sind die Zahlen eigentlich auch hier ganz gut. Wachstum beschleunigt sich sogar. Ja, beschleunigt sich sogar wieder. Wahnsinn. Sie sind mit diesen 240 Millionen profitabel. 6% operative Marge. Wie gesagt, ohne den Sondereffekt wären es eigentlich zweistellig. Das ist halt, was du im E-Commerce in Europa nicht mehr hinbekommst. Zweistellige operative Margen und noch 40% Wachstum in dem Fall. Aber selbst zweistelliges Wachstum wäre schon gut. Von daher ist so ein bisschen die Ausnahme zu meiner These, dass E-Commerce kein so spannendes Modell wäre, wobei man sagen muss, dass MercadoLibre halt auch weit mehr als E-Commerce ist. Also das Payment-Volumen, habe ich ja gerade gesagt, ist viermal so groß wie das Plattform-Volumen auf dem E-Commerce. Also die Fintech-Sparte wird viel auch außerhalb der Plattform genutzt und das ist wahrscheinlich das, was mehr Sekunde habe ich die Rohmarge pro Geschäftsbereich. Ich glaube, der Kurs ist ein bisschen runtergegangen, weil ich sehe gerade, die Margen haben sich verschlechtert. So ein bisschen ist es Logistikkosten, die da auch reinhauen. 1,2 Prozent. Das ist so ein bisschen das gleiche Problem, was wir auch in Europa haben, dass wir 1,2 Prozent Marge an Logistik verlieren. Das ist natürlich nicht so gut. Und es ist ein Einmal-Steuer-Effekt, der ist relativ egal. Hosting ist auch teurer geworden. Also was man nicht mochte, ist, dass die Rohmarge sich verschlechtert hat. Aber das sollte jetzt kein Trend zur Margenkompression sein eigentlich. Aber ja, wie gesagt, weil die Rohmarge sich verschlechtert hat, wurden die Zahlen jetzt eher schlecht aufgenommen, aber vom Wachstum ist es eigentlich weiterhin großartig. So, wo wir gerade bei E-Commerce sind, machen wir Wayfair noch. Das ist ganz spannend, da wird langsam zum Turnaround Case. Die haben ja das dritte Mal eine große Entlassungswelle mit zuletzt glaube ich 1600 Angestellten. gemacht. Wachsen genau gar nicht mehr. 0,4% Wachstum nur noch beim Net Revenue. Die Rohmarge auch krass, nur 30%. Das ist natürlich schwer. Ich weiß nicht, ob man bei Möbel, ob das normal ist für Möbel, aber wahrscheinlich schon. Die Warenkörbe sind natürlich entsprechend groß. Es sieht aber immer ein bisschen besser aus als letztes Jahr, die Rohmarge. Die Marketingkosten liegen ein bisschen unterm Feuer. Das ist ganz gut. Und die operativen Ausgaben hat man insgesamt um 9% reduziert gegenüber dem Vorjahr. Und dadurch macht man nur noch 5,5% Verlust. Das war zu schlimmeren Zeiten mal bis zu 13% negative operative Marge. Jetzt nur noch 5,5% Cashflow positiv. Das heißt, der Verlust ist hauptsächlich Sharebase Compensation. Die Inventories bauen sie ganz gut ab. Das hilft wahrscheinlich beim Cashflow. konsolidiert sich so langsam. Also es wächst nicht und verdient auch noch kein Geld, aber dadurch, dass die Kosten jetzt weiter sinken durch die Entlassung, sieht es so aus, als wenn Wayfair so langsam in den Griff kriegt, die Lage. Aber zu was für einem Wachstum die zurückkehren können, ist eben auch noch die Frage. Sieht nicht gut aus. So, dann Square hattest du dir gewünscht. Sagen wir Block oder Square? Im Sheet steht es mit Absicht noch unter Square.
Ja, wir fangen ja auch an, Facebook-Meter zu nennen. Da müssen wir Müssen wir sie auch Block nennen.
Okay, dann heißt es Block. Bei Block macht es immer Sinn, wie bei vielen Payment- oder Fintech-Businesses, direkt auf die Rohmarge zu schauen, weil das Net Revenue oft beeinflusst ist, in dem Fall hier vom Bitcoin Revenue zum Beispiel, deswegen, dass der Rohertrag, Gross Profit, um 22% gestiegen ist. und Rohmarge ist damit 35%, klein bisschen weniger als letztes Jahr, aber nicht deutlich weniger. Die Kosten sind nur um 20% gestiegen und dadurch verbessert sich das Ergebnis minimal, kann man sagen. Operating Income ist immer noch minus 130 Millionen, Cashflow aber schon positiv, etwas besser als im Vorjahr, noch nicht so richtig auf dem Weg in die Profitabilität, aber die Aktie hat sehr positiv reagiert, ich glaube auch 17% im Plus oder so Sekunde, lass ich mal gucken.
Ja, ich sehe hier 16%.
Genau. Freue ich mich.
Hast du doch noch welche irgendwo rumliegen?
Ich glaube ja. Und zwar angeblich, weil es einen Surprise-Profit gab. Aber der ist halt wirklich ein Surprise. Also das operative Ergebnis hat sich halt kaum verbessert. Sondern es gibt hier zwei Sondereffekte. Was gut ist, es sind auch 117 Millionen Restructuring-Charges noch drin, die könnte man jetzt wieder abziehen. Danach wäre das Ergebnis noch besser und dann könnte man sagen, sie sind fast break-even. Wenn du die 117 Millionen abziehst, die Restructuring, die kommen ja nicht wieder, die Kosten. Einmaleffekt. Ist hier nicht einzeln ausgewiesen, aber die könnte man abziehen. Man sieht es auch ganz gut, wenn man aufs Adjusted EBITDA schaut. Das hat sich nicht verdoppelt gegen bei dem Vorjahr. Also eigentlich ist das Ergebnis tatsächlich ganz gut. Dann gibt es ein Goodwill-Impairment von 132 Millionen. Das ist eine Abschreibung auf Tidal übrigens. Was hat das mal gekostet? 300 Millionen? Nee.
Abendessen mit einem Jay-Z war das doch, oder nicht?
Teures. Naja, auf jeden Fall ist jetzt 132 Millionen abgeschrieben. Das drückt auch aufs Ergebnis, die Abschreibung. Und dann gibt es aber eine Other-Expense von 217 Millionen. Und die ist, also Remeasuring-Gain-Online. Also dieser Sondereffekt, der zu dem positiven Net-Income führt, ist quasi eine 207-Millionen-Aufwertung des eigenen Bitcoin-Portfolios. Das heißt, das würde man jetzt nicht so abziehen, aber fairerweise muss man sagen, dieses Restructuring-Charges würde man abziehen, dann sieht auch das operative Ergebnis fast schon wieder break-even aus. Und hier hilft es vielleicht tatsächlich ein bisschen auf Adjusted EBITDA zu gucken, weil es so viele Sondereffekte gibt. Und man muss nur wissen, dass dann eben die Sharebase Compensation muss man auch abziehen. Die ist immerhin bei 330 Millionen im Quartal. Und dann kommt man auf einen ganz sinnvollen Wert vielleicht. Ich würde sagen, die Aktie regiert ja, sie wachsen mit 22%. Das ist schneller als im Vorquartal. Da ging es ein bisschen runter auf 21%, jetzt sind wir aber auf 22%. Und man sieht ja das Ergebnis. Im Ergebnis war man zufrieden. Was haben wir gesagt, machen wir noch? Achso, Nubank.
Ja, und vor allem ZipRecruiter.
Achso, genau. Nubank ist ein bisschen runtergegangen. Fairerweise muss man auch sagen, dass sie gelaufen sind. Sehr gut, ich glaube, verdoppelt oder mehr. Ja, haben sich auf Jahressicht verdoppelt. Allein dieses Jahr 25% gemacht nochmal. Deswegen ist es nicht schlimm, wenn die mal auf Tagesbasis ein klein bisschen was verlieren. Nubank ist ein Payment- oder Banking-Anbieter in Südamerika. Bekannt dafür, dass Warren Buffett da mit Berkshire investiert. Also vielleicht nicht er, aber sein Team investiert hat vor dem Börsengang noch. Die wachsen beim Umsatz immer noch mit 66% schneller als im Vorquartal wieder. Also nochmal beschleunigt. 66% über dem Vorjahr der Umsatz. Der Rohertrag hat sich fast verdoppelt. 98% auf 1,14 Milliarden US-Dollar im Quartal. Operativen Ausgaben sind, kann man nicht so richtig sagen, weil es da im Vorjahr Sondereffekte gibt. Das heißt, der Vergleich fällt schwer, aber sind so 30-40% höher nur. Und wir haben ja gesagt, der Umsatz ist über 60% gestiegen. Das heißt, Natürlich hat sich die Marge verbessert. Letztes Jahr haben sie 300 Millionen Verlust gemacht. Achso, das war der Sondereffekt, das kann man nicht zählen. Letztes Jahr hätten sie 100 Millionen Gewinn gemacht, ohne den Sondereffekt, würde ich mal schätzen. Und jetzt ist man schon bei 361 Millionen Gewinn im Profit. Das entspricht 15% Profitmarge. Also sie wachsen wie die Hölle, 66% und machen 15% Ergebnis nach allen Kosten schon. Kleine Position, sieht gut aus, ist natürlich teuer. Das Einzige, was so ein bisschen Haar in der Suppe ist und vielleicht deswegen der Kurs auch nicht so, also die Marge hat sich übrigens, die Rohmarge hat sich von 40 auf 47,5% verbessert, auch nochmal richtig krass. Was das Haar in der Suppe ist, aus meiner Sicht definitiv, also die weisen sie nicht aus, aber ich habe das mal berechnet, die Customer Acquisition Cost, wenn man die, könnte man eigentlich auch per Active Customer machen, Sekunde. Ich mache das mal per ActiveCustomer. Sekunde, dann ist es nicht 47, sondern 49. Oder würde man TotalCustomers nehmen für CustomerAcquisitionCost? Active wäre netto. Rechne mal active. Also es gibt Customers, die einfach nur geführt werden als Kunden und es gibt natürlich welche, die tatsächlich finanzielle Transaktionen im Quartal gemacht haben. Und die Kundenakquisekosten quasi haben sich auf 17 Dollar erhöht. Die waren vorher eigentlich nicht mal halb so hoch. Das heißt, man sieht eigentlich einen relativ starken Anstieg in den Marketingausgaben. Das kann ja kein Sondereffekt sein. Wo haben wir das? Marketingexpenses sind um 40% gestiegen. Aber gleichzeitig ist der Umsatz ja so weit gestiegen. Also wenn ich so viel mehr aus den Kunden rausholen, ist doch auch egal, wenn der Kack ein bisschen höher ist. Also du kannst doch, wenn du jetzt so viel mehr Geld verdienst mit den Kunden, kannst du auch mehr Geld dafür ausgeben. So schlimm ist das gar nicht, würde ich sagen. Mache ich wieder weg hier das Red Flag. Macht schon Sinn. Ja, weiß gar nicht, was man da zu meckern hat. Nur eigentlich super Zahlen.
Dann auf zu ZipRecruiter. Da gab es auch was zu meckern.
Da gab es was zu meckern?
Ja, ist auf jeden Fall negativ.
Ein bisschen nur, oder?
Wenn es mehr wäre, hättest du schon böse Nachrichten bekommen.
Oh, 8%, doch. Es ist nochmal richtig runtergegangen. Ich habe vorhin geschaut, da war es noch nicht so viel. Genau, habe ich auch im Portfolio eine meiner größten Positionen. Lief jetzt nicht so gut die letzte Zeit. Einfach erklärt, weil der Jobmarkt sich natürlich sehr gedreht hat nach Corona. ZipRecruiter schrumpft. Gegenüber dem Vorjahr um über ein Drittel, also von 210 auf 136 Millionen Umsatz. Hält aber die Rohmarge über 90 Prozent. Wahnsinnige Rohmarge, das ist bei Marktplätzen auch nicht ganz ungewöhnlich. Hat die Marketingausgaben halbiert gegenüber dem Vorjahr. Und im Ergebnis bleiben noch 10 Prozent operative Marge übrig. Also diesen Downturn managen sie insofern gut, dass sie weiterhin profitabel bleiben, also deutlich profitabel bleiben. dass sie ihre Rohmarge behalten. Sie können ganz gut runterfahren, haben auch Entlassung gemacht, aber sparen eben auch am Marketingbudget und so. Von daher ist das gar nicht so schlecht und sie guiden nicht so richtig nach vorne, sondern sagen, es bleibt eine angespannte Lage. Sie sind quasi darauf vorbereitet, sowohl auf einen schwächeren, noch schwächeren Arbeitsmarkt als auch einen wieder aufkeimenden schnell zu reagieren. Die Anzahl der aktiven Employer, die Geld ausgeben, ist stark gesunken. Auch 35% unter dem Vorjahr. Aber die, die verbleiben, geben mehr Geld aus. Mehr als im Vorquartal, nicht als im Vorjahr. Wahrscheinlich sind es erst die kleinen SMBs, die nicht mehr Werbung schalten. Das ist auch nicht ganz ungewöhnlich. Und man hat natürlich so ein doppeltes Problem. Also einerseits gibt es nicht so viel Jobnachfrage gerade und weil es so viel Entlassung gibt, trauen sich Leute vielleicht auch nicht ganz so viele Jobs zu wechseln. Das heißt, du hast auch nicht so viel Liquidität im Markt. Du könntest sagen, die, die entlassen sind, brauchen ja einen neuen Job. Das ist gute Nachfrage. Aber gleichzeitig die freiwillig Wechselnden, aktiv Suchenden... Da gibt es vielleicht dann gar nicht so viel. Ansonsten für den US-Arbeitsmarkt kann man sich immer die sogenannten Non-Farm-Payrolls anschauen. JTS, JOL googeln, dann findet man das. Das sind die Job-Openings ohne sozusagen Agrar. Da sieht man, ich würde sagen, da sieht man so eine Art Bodenbildung bei den Job-Openings. Das heißt, es könnte eventuell wieder, also es kann auch auf dem Plateau verbleiben und es kann auch mal weiter runter gehen. Wenn man daran glaubt, dass die US-Konjunktur sozusagen sich wiederbelebt, dann könnte es natürlich so eine Art Trendumkehr jetzt geben. Es kann aber, wie gesagt, auch sein, dass die USA an eine Rezession rutschen und dann würde es eher noch mehr Ablassungen geben, noch weniger Job-Openings und dann würde es auch noch schlechter gehen. Es wird immer eine zyklische Aktie bleiben. Das heißt, wenn die Konjunktur nicht läuft oder schlechter läuft im Vergleich zu vorher. Bei den Job-Openings sieht man auch ganz gut, wie krass dieser Sondereffekt war. Einfach in 2020 und 2021. Da haben sich einfach die Job-Openings mehr als verdoppelt und dementsprechend groß war die Nachfrage. Bei Supercruiter und jetzt sieht das halt alles deutlich schwerer aus. Ansonsten glaube ich, ist es weiterhin eine gute Möglichkeit, um auf die Job-Lücke zu wetten. Im Vergleich ist es super günstig. Ich glaube, zweimal Umsatz kostet es nur noch ZipRecruiter. Genau, zweimal Umsatz, 15 mal Price Earnings. Gut, es schrumpft natürlich auch ein Drittel unterm Vorjahr, aber wie gesagt, es ist profitabel. Und auch die großen Konkurrenten, wenn man sich Recruit anschaut, sind die auch sehr, sehr günstig bewertet. Zu Recruit gehört ja Indeed als sozusagen größte Jobplattform. Auch die kann man im Moment ganz günstig kaufen. Muss man wissen, ob man darauf wetten will, dass der Jobmarkt wieder anspringt oder nicht. kann man auch einfach lassen. Natürlich, ich halte meine Position, aber weil ich prinzipiell an den langfristigen Trend glaube, würde ich mich jetzt noch nicht davon trennen, ehrlich gesagt. Und insgesamt glaube ich immer noch, dass die Firma ganz gut gemanagt ist und in einem, also so sollte es wieder hochgehen und die Nachfrage steigen, dann ist es natürlich mit dem Margenprofil total spannend, weil sie dann stark überproportional auch profitieren würden davon. Genau, dann sind wir eigentlich durch mit den Earnings, oder? Fiverr müssen wir nicht machen.
Earnings, ja, aber wir können ein bisschen noch beim Jobmarkt bleiben. Und zwar muss Conuno jetzt den Klarnamen nennen, dann ist doch das Geschäftsmodell eigentlich durch, oder?
Das macht es natürlich, also Conuno ist eine Plattform, wo man den Arbeitgeber bewertet und das geliebte Oberlandesgericht Hamburg hat entschieden, im Eilverfahren, dass der Arbeitgeber, der bewertet wurde, die Herausgabe des Namens des Bewertenden bedingt, also was dafür erfordern darf, Also die Plattform muss entweder die Bewertung löschen oder herausgeben, wer das ist. Problem ist, wie du ganz richtig sagst, natürlich wird man jetzt einen Teufel tun. Also wie gesagt, das kann alles nochmal vielleicht eine weitere Stufe eskaliert werden, muss man gucken, wie das ausgeht. Aber im Moment wäre es halt so, dass du dann Angst haben musst, dass Kununu, also wenn Kununu schlau ist, versichern sie natürlich, dass sie im Zweifel eher löschen, als den Namen rauszugeben. Ansonsten wäre ihr Geschäftsmodell tatsächlich schnell tot. Aber ansonsten, wenn du Angst haben musst, die geben deinen Namen raus, dann gibt es vielleicht Leute, denen das immer noch egal ist, weil die einfach fertig sind mit dem Arbeitgeber. Aber das macht es jetzt nicht attraktiver. Erstmal, was ich überlegt habe, ist, warum eine Zwischenlösung wäre doch, dass ich nur nachweisen muss, dass der Mensch dort gearbeitet hat. Also warum muss ich den Namen rausgeben? Das ist ja so ein bisschen wie bei den Google Reviews. Da kannst du ja auch löschen lassen, wenn jemand nicht nachweisen kann, dass er wirklich in dem Laden war, Kunde war. Da gibt es, glaube ich, eine ähnliche Rechtsprechung. Aber sofern jemand glaubhaft nachweisen kann, dass er dort gearbeitet hat, hat er Meinung nach das Recht auf Anonymität. Wundert mich, warum das so nicht berücksichtigt wurde. Weil es kann ja nur darum gehen, dass du jetzt anonym nicht, wenn du nicht nachweisen kannst, dass du jemals da gearbeitet hast, nicht anonym über irgendeinen Arbeitgeber abhäten kannst. Das finde ich fair so. Das muss man schon irgendwie sicherstellen. Die Arbeitgeberin hat natürlich ein Recht, sich dagegen zu verwehren und zu schützen, glaube ich. Das kann ich nachvollziehen. Aber das mildere Mittel wäre hier dass die Plattform erstmal nur nachweisen muss, dass der Mensch dort gearbeitet hat und dafür nicht zwangsläufig den Namen weitergeben muss an die Arbeitgeber, Arbeitgeberin, würde ich denken. Aber mal sehen, wie das weitergeht. Aber wäre natürlich ein riesiges Problem für Kononu, wenn das so bestehen bleibt. Aber wie gesagt, man kann einfach sagen, im Zweifelfall löschen wir immer. Das würde natürlich dazu führen, Das ist sogar noch schlimmer für die Plattform. Weil was mache ich dann als Arbeitgeber? Ich beantrage dann die Löschung mit aller schlechten Reviews und verbessere dadurch mein Ranking. Dadurch wird die Plattform genauso nutzlos eigentlich. Das heißt, dann müsste Kuno nur eins machen, dass sie sagen, wenn irgendein Arbeitgeber die Löschung eines Reviews beantragt, dann löschen wir alle. Weil anders kannst du es nicht machen. Weil in dem Moment verzerrst du ja, in dem Moment, wo du nur die... Der Arbeitgeber würde nie sagen, nimm mal das 5-Sterne-Rating hier weg, von die gesagt hat, hier ist super Kultur und der Chef rummelt wirklich nur auf Weihnachtsfeiern. Dann würde es ja den Sinn verlieren. Das heißt, dann musst du eigentlich, wenn du löscht, musst du... Den Namen rausgeben kannst du nicht machen, dann würde niemand mal reviewen. Und wenn du löscht, musst du alles löschen, weil sonst zerrst du deine eigene Plattform.
Dann hast du keine Requeue-Plattform mehr.
Hats you win, tails I lose. Beschissene Situation. Mal sehen, ob das so bestehen bleibt. Steht hier irgendwas von Berufung? Sekunde. Also es ist schon einmal eskaliert ins ORG. Vorverfahren hat Kuno nur noch recht behalten. Sekunde, aber hier steht Antrag der Arbeitgeberin auf Erlass einer einstweiligen Verfügung mit der Forderung auf Löschung der Bewertung. Wies das Landgericht Hamburg zurück. Für die Richterin genügte die anonymisierten Nachweise zur Überprüfung der Echtheit der Bewertung aus. Achso, nee, das war das Vorgericht. Verstehe. Das war die Entscheidung des Vorgerichtes. Achso, Kunum hat angekündigt, Rechtsmittel einzulegen. Das macht ja auch Sinn, weil es wäre ja wirklich sehr gefährdend für das Geschäft. Also man hat wohl versucht, Tätigkeitsnachweise einzureichen und die waren ungenügend. Also das scheint so, als hätte das Gericht eventuell anders entschieden, hätte man Tätigkeitsnachweise besserer Qualität. Weil ich glaube schon, dass... Das mildeste Mittel wäre, dass ich einfach nur einen Lohnstreifen einschicke an Kununu und die können das quasi, müssen es dann an Eidestadt versichern, dass das nachvollziehbar ist und dann, meiner Meinung nach, dürfte die Arbeitgeberin kein Recht gegen die Person haben oder gegen die Plattform. Naja, wie auch immer.
Könnte dann gegebenenfalls auch ganz gut für die Plattform sein, wenn sie alle Lohnabrechnungen hätten. Und wissen, was sie so zahlen.
Das wäre auch noch spannend, ja. So, Jan, bewerte uns mal als Arbeitgeber auf Kuno. Wir haben keinen Kuno-Profil, glaube ich, zum Glück. Vielleicht ist es diese Woche besser als vor zwei Wochen. Hätte ich kein Review von Ihnen haben wollen.
Meinst du, die heutige Folge war besser? kann die Audience bewerten. Also, in diesem Sinne, habt ein schönes Wochenende. Bis Mittwoch.
Peace. Ja, wertet uns mal in den App-Stores, wie heißt das nicht, Podcast-Plattform, solange man das noch anonym darf. Und tschüss.
Der Doppelgänger Tech Talk Podcast ist ein Projekt von Philipp Klöckner und Philipp Glöckler, recherchiert von uns und produziert von Jan aus dem Off. Weiter diskutieren kannst du in unserer Doppelgänger Discord Community. Fragen und Anfragen kannst du uns gerne per Mail an podcast.doppelgänger.io schicken. Unseren aktuellen Werbepartner findest du in unseren Shownotes. Vielen Dank, schönes Wochenende und bis Mittwoch.