Doppelgänger Folge #427 vom 28. Januar 2025

DeepSeek Deep Dive #427

Am Montag, dem 27. Januar 2025, ist die NVIDIA Aktie um fast 17% gefallen. Warum? Ist DeepSeek aus China der Black Swan? Wir sprechen heute ausführlich über deepseek.


Entdecke die Angebote unserer Werbepartner auf doppelgaenger.io/werbung. Vielen Dank!


Philipp Glöckler und Philipp Klöckner sprechen heute über:

(00:00:00) deepseek

(00:39:20) Perplexity

(00:41:10) Kidnapping

(00:44:40) AFD

(00:52:30) Twitter


Shownotes


DeepSeek FAQ von Ben Thompson Stratechery

Meta verzweifelt, nachdem die chinesische KI der eigenen gleichkommt und das Silicon Valley in Aufruhr versetzt The Information

Perplexity AI revidiert Fusionsvorschlag für Tiktok, der der US-Regierung eine 50%ige Beteiligung einbringen könnte CNBC

Empörte internationale Reaktionen auf Elon Musks AfD-Auftritt Spiegel

999.900 Euro aus Jenas Kneipenviertel für die AfD Zeit

Humanity's Last Exam: Neuer KI-Test an dem alle Modelle scheitern Heise

E-Mail von Elon Musk an die Mitarbeiter von X: „Wir erreichen kaum die Gewinnzone“. The Verge


📧 Abonniere jetzt den Doppelgänger Newsletter auf doppelgaenger.io/news und erhalte jeden Montag die relevanten News der Woche 📧

👋 Aktuelle Werbepartner des Doppelgänger Tech Talk Podcasts, unser Sheet und der Disclaimer 👋

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger Tech Talk Podcast Folge 427 am 29. Januar 2025. Ich bin Philipp Klöckner und telefoniere zweimal die Woche mit Philipp Klöckner, dem Tech-Analysten. Und die News überschlagen sich. Ich glaube, wir wissen bei täglichen Podcasten hier unfassbar, was am Montag passiert ist. Kurz bevor ich ins Bett gegangen bin, habe ich geguckt, Nvidia fast minus 19 Prozent. Das heißt, ich meine so 600 Milliarden, kann das sein? Ist das richtig? Also mehr als was auch immer Trump da in AI reinbuttern wollte.
Zweimal das Bruttosozialprodukt von Finnland hat Nvidia an einem Tag verloren, könnte man sagen. 600 Milliarden stimmt.
Unfassbar. Wir müssen uns nie mehr Sorgen machen, ob wir genug Content für diesen Podcast haben.
Endlich trifft dein AI-Abgesang auf fruchtbaren Boden.
Genau.
Was ich auch viel sagen sollte, ist, dass Apple an diesem Tag 3% hochgeht. Das ist das Eingeständnis, dass Apple mit KI wirklich nichts zu tun hat fürs nächste Jahr. Alle KI-Highflyer, TSMC, Supermicrocomputer, Nvidia, Broadcom verlieren 10% und Apple geht 3% hoch am gleichen Tag.
Ja, aber für Apple ist es ja ganz gut, wenn AI auf einmal so eine Commodity ist, dass du es selbst auf dem M1 vom Mac oder so laufen lassen kannst, ist ja alles super.
Absolut.
Also du musst uns ein bisschen abholen. Wir haben über DeepSeek irgendwann mal kurz gesprochen, vor so einer Woche oder so.
Haben wir darauf hingewiesen, dass es relativ nah an bestehende Modelle, also an State-of-the-Art, an die besten Modelle rankommt.
Du kannst ja gleich mal so einen langen Monolog halten und mir das alles erklären. Ich würde es so zusammenfassen. Formel 1. Irgendwie Ferrari, Mercedes und wer da oben noch da mitspielt, investiert wahnsinnig viel in die ganze Technik, die Innovationen, haben die besten Fahrer und alles. Und dann kommt da auf einmal von hinten so ein Auto, das irgendwie mit der Technik von vor zwei Jahren fährt. Aber irgendwie haben sie es geschafft, aus den Chips, aus dem Motor mehr rauszuholen und zack, überholt alle. Wäre das eine Metapher, wäre das ein Bild, das das beschreiben könnte?
Ja, ist ein bisschen unscharf. Also genau genommen überholt es nicht alle, sondern schließt auf einmal zu den Führenden auf, würde man sagen. Also es startet aus der letzten Reihe, wie du sagst, mit einem... Verbrennermotor in der Formula E, aber hat durch gute Ingenieursarbeit es geschafft, so viel aus dem Auto rauszuholen oder aus begrenzten Ressourcen, dass es auf Platz 3 oder Platz 2 Discrit landet auf einmal.
Und dabei noch als Sidebar. Das finde ich das absolut, mein absolutes Lieblings, Lieblings-Zwei-Wörter in der ganzen Sache. Man verkauft es so, du kannst ja gleich nochmal erzählen, wie viel du davon glaubst und alles, aber wirklich verkauft als Side-Project. Ist so ein bisschen wie so ein Tech-Analyst, der nebenbei so einen Podcast macht mit so einem anderen Co-Host, der nichts kann und auf einmal vorne mitspielen darf.
Ja, ich glaube, da sagst du richtig, es wird verkauft als Side-Project. Das haben wir vor einer Woche in der Episode schon erwähnt. Also Deep Seek entstammt dem Labor eines chinesischen Hedge-Funds, der High Flyer heißt. Wer will, kann es die letzte Zeit noch mal anhören. Wir werden es nicht komplett erzählen. Aber einfach gesagt, der war kurze Zeit erfolgreich mit algorithmischem Trading. Also hat KI versucht, den Markt schlagen zu lassen. Das ging eine Zeit lang gut und dann eine Zeit lang nicht, wie das eigentlich immer ist. Und dann hat man nebenbei begonnen, andere Anwendungen für die KI-Chips, die man schon hatte, zu suchen. Und unter anderem gab es irgendwie das Projekt, aus dem dann das Model, das... Grundlagenmodelle, Foundation Model, DeepSeek entstanden ist, das war eine Anwendung. Deswegen kann man auch schon davon ausgehen, dass es eben vielleicht doch ein bisschen mehr Geld und Vorarbeit und Chips hatte, als jetzt öffentlich gesagt wurde. Aber wir fangen mal vorne an. Also was hat Silicon Valley so erschüttert, dass angeblich... Eine Firma, die nur 5,6 Millionen US-Dollar für das finale Trainieren dieses Models, DeepSeek R1. R1 ist das Reasoning-Model, das ist quasi so wie O1 von OpenAI. Davor gab es noch ein wichtiges Model, dazu vielleicht mal am besten Ben Thompson durchlesen. Ist das öffentlich geworden? Ich weiß nicht, ob er den Post öffentlich gemacht hat. Der Vorgänger ist das V3-Model, das ist sozusagen das komplettere große Model, auf dem das basiert. Und R1 ist das Reasoning-Model. Und dieses Reasoning-Model konnte angeblich mit nur rund 2000 H800-Chips, Nvidia-GPUs, die eingebremsten quasi, die den Exportkontrollen unterliegen, trainiert werden und kommt aber sehr nah an die State-of-the-Art-Performance von Cloud, Sonnet oder OpenAI O1 heran. Schlägt sie in manchem Belang, nicht in allen, es hat auch Schwächen, aber... Das, was den Markt erschüttert, ist hauptsächlich die Frage, also einerseits war unser Geld gut investiert, die 22 Milliarden, die man OpenAI gesteckt hat, die ganzen CapEx, die Microsoft, Meta und so weiter investieren. Das Stargate-Projekt jetzt, ist das schlau, so viel Geld reinzustecken, wenn andere das so einfach bauen können? Und die größere Frage ist natürlich, brauchen das, sagen wir mal, unser Zugpferd NVIDIA, was den ganzen Markt am Laufen hält, wird das so viele Chips verkaufen können in Zukunft, wenn man mit irgendwie einem, mit drei Prozent der Chips, die den Großen zur Verfügung stehen, sowas Mächtiges bauen kann. Das ist, würde ich sagen, die Hauptangst, die besteht. Und dann muss man aber viele so Kaviarz, würde man am Englischen sagen, oder viele Einschränkungen machen. Einerseits, warum es vielleicht nicht 100 Prozent richtig dargestellt ist. Andererseits, also, Und die Performance des Modells muss man nicht infrage stellen. Es ist getestet von diesen Benchmarking-Tools von der Community in dieser Chatbot-Arena. Das heißt, es wurde gegen andere Modelle verglichen und es performt, so wie es performt. Und es ist Open Source, das heißt, es ist einigermaßen gut nachvollziehbar. Es ist auch nicht, dass wir hinter Menschen sitzen können, das ist auch viel zu schnell oder dass ein ganz anderes Model dahinter steht. Das heißt, die Performance wollen wir überhaupt nicht infrage stellen, sondern es performt so gut. Die Frage ist sozusagen, was ist an der Herkunftsstory jetzt richtig und dann was sind die Implikationen, die sich für die Zukunft ergeben. Was zu den Trainingskosten noch hinzukommt, das ist auch auf der Inferenzseite, also für die Menschen, die es einsetzen und abfragen wollen, ungefähr 10 bis 30 mal günstiger ist und 5 mal schneller sein könnte. Und da muss man sich schon wieder an der Stelle fragen, ist es eben so, dass LLMs, wie ich vor zwei Jahren in meinem OMR-Talk unter anderem behauptet habe, quasi Commodities werden? Also es ist vollkommen egal, welches Modell du nutzt, weil alle Modelle irgendwann Open Source werden und super mächtig. Das wäre, ich will nicht sagen, ultimativ bestätigt die Hypothese, aber das ist jetzt ein großer Schritt in diese Richtung, dass es vollkommen egal ist, ob du ein eigenes Model hast oder nicht, sondern es ist Vielleicht eher wichtig, ob du eine günstige Dateninfrastruktur, also ob du proprietäre Daten erstmal hast, eigene Daten, die du verwenden kannst, die niemand anders hat, und ob du eine günstige Datenzentraleinfrastruktur hast, auf der du das ausrechnen kannst, damit es nämlich auch super günstig und schnell ist am Ende. Die Unterschiede, die man gemacht hat, also warum ist das so kostengünstig oder deutlich kostengünstiger? Vielleicht ist es nicht so kostengünstig wie dargestellt, aber warum ist es prinzipiell deutlich kostengünstiger? Auch das nicht super... Überraschend, das eine ist, es ist ein Mix of Expert Modell, auch das habe ich vor, glaube ich, zwei oder letztes Jahr erklärt im Talk, dass das mehr kommen wird, Compound und Mix of Expert Modell. Du brauchst nicht mehr ein allmächtiges Modell, was von Rechnen, Kochen, Schreiben, Coden, alles kann. sondern du hast eigentlich viele kleine spezialisierte Experten, so schlanke Modelle, die auf allen Use Cases, zum Beispiel Coding, zum Beispiel Gedichte schreiben, zum Beispiel Rechnen oder Reasoning spezialisiert sind und dadurch sparst du schon mal oder schaffst Effizienz. Dann, was besonders ist, es gab kein Supervised Fine Tuning, also man hat, und das macht es auch so günstig, dass man rein auf Reinforcement Learning gesetzt hat. Das heißt, die Antworten des Modells werden geratet, ob sie gut oder schlecht sind. Und nur dadurch verbessert sich das Modell selber. Was jetzt außerdem noch höchstwahrscheinlich zu dem Kostenvorsprung geführt hat beim Training, ist einerseits der Fakt, dass das ein destilliertes Modell ist, oder zumindest das Endergebnis ein destilliertes Modell ist. Destilliertes Modell heißt einfach gesagt, man baut ein Riesenmodell wie Lama 700b, also was unheimlich viele Parameter hat. Und dann gibt es ein, man könnte sagen, ein Meister und ein Schüler. Und der Schüler lernt einfach von dem Meister. Also wenn das Meistermodell ist, Ein alter Meister, der 90 Jahre lang gelernt hat und ganz viel weiß, sehr aufgebläht ist, viel unnützes Wissen auch hat. Und jetzt hat er die Chance, innerhalb von einem Tag dem Schüler das wichtigste Wissen beizubringen. Das, was man wirklich braucht, womit man gute Antworten für die Use Cases generieren kann. Und so ein bisschen funktioniert das also, dass das Schülermodell oder das destillierte Modell lernt von dem Meistermodell, was relativ aufgebläht ist. Und das ist was, was Meta ja in der Vergangenheit auch schon, das ist wie diese kleinen Modelle, die dann auf Smartphones laufen, in der Regel die 7, 8, 12 Billionen Parameter. Edge-Modelle, also die auf Smartphones laufen oder auf Computern, die sind in der Regel durch Distillation entstanden und auch R1, sagen wir, ist Distillation durchgangen und deswegen so schlank, schneller, effizienter, günstiger. Am Ende.
Also ungefähr so, wie wenn ich gleich beim Mittagessen meinem Freund erkläre, was wir heute hier besprochen haben.
Ja, genau. So könnte man sagen. Und Jetzt ist die Frage sozusagen, was ist der Meister? Also ist es die V3-Version, also die größere Version des Deep-Seek-Modells? Oder, das ist mindestens ein Vorwurf und sagen wir, Was auch die beste, ich würde sagen derzeit die beste Erklärung ist, wie man das so schnell und so günstig bauen kann, ist, dass man einfach eines der großen Modelle von OpenAI oder Lama nimmt. Dass Lama Open Source viel in China eingesetzt wird zum Beispiel, ist relativ bekannt. Dass man quasi diesen Modellen so viele Fragen stellt, dass man aus den Antworten quasi ein eigenes Modell trainiert. Also es ist natürlich immer so der typische Copy-Paste-Vorwurf, den man insbesondere in China hat. Da muss man auch ein bisschen mit aufpassen, glaube ich. Aber das wäre die beste Erklärung, wie man besonders schnell und effizient ein neues, sehr präzises, sehr gutes Modell trainieren kann, was man dann noch weiter destilliert und verfeinert, indem man einfach die Antworten von großen Modellen wegscrapet sozusagen oder nutzt, um dann daraus zu lernen. Dass es wahrscheinlich ist, dass es zum Training anderer Modelle genutzt wird und nicht für tatsächliche Real-World-Use-Cases. Es ist, glaube ich, einigermaßen wahrscheinlich, dass die Chinesen das machen. Das stellt wiederum dann, ob man das jetzt gut oder schlecht findet, das stellt auf jeden Fall in Frage, sollte die westliche Welt quasi CapEx in zig hunderten Milliarden investieren. bald Trillionen oder Billionen Dollar investieren, damit die Chinesen quasi abschreiben dann oder darauf basierend eigene Modelle schreiben. Aber Fakt ist, das wird sich wahrscheinlich nicht verhindern lassen oder nur unter viel Aufwand verhindern lassen, also indem du die Abfragerate kontrollierst. Man müsste dann quasi Rate Limiting, IP-Adressen sperren und so weiter. Ein bisschen das, was Cloudflare fürs normale Web gemacht hat. Das wird schon irgendwie möglich sein. Aber das Ganze zu verhindern ist wahrscheinlich nicht möglich. Das heißt, wir müssen damit leben, dass wer immer ein aufwendiges, gutes Modell baut, dass jemand anderes es unter anderem dafür einsetzt, ein noch schlaueres, kleineres, kompakteres, smarteres Modell. zu bauen. Und wie gesagt, das unterstützt einerseits die These, die viele inklusive mir hatten, dass es eben commoditized wird und dass es am Ende auf Hardware-Distribution, also Kundenzugang und Daten ankommt und nicht auf das beste Modell, weil das Modell wird jeder haben oder bauen können. Und andererseits müssen wir damit leben, dass sozusagen in den Investitionen in große Modelle eine gewisse Ineffizienz steht, nämlich dass jemand es relativ schnell abschreiben kann. Was man vielleicht auch daraus lernen kann, ist, dass Du erinnerst dich vielleicht an unsere Debatte. Die erste Debatte war ja, ist AI hitting a wall, als die Scaling-Laws angeblich ausgesetzt wurden. Also sprich, die Fortschritte mit noch mehr Parametern, noch mehr Chips sind kleiner geworden. Diminishing returns oder sinkende Grenzerträge, würde man sagen, in der BWL. Das hat dich ja schon gefreut, weil du den ersten Abgesang auf AI machen konntest von vielen. Da war meine Antwort ja, Wir werden stattdessen einfach in eine andere Richtung forschen. Also es wird dieses Bare-Metal-Scaling, also ich packe einfach mehr Chips und mehr Rechenzentren darauf, das wird vielleicht ineffizienter. Aber wir bauen eben Compound-Models, Mix-of-Expert-Models. Wir nutzen vielleicht nicht mehr Transformer, sondern bauen andere Systeme dafür. Und genau das ist hier passiert, nämlich Leute, die keinen Zugang zu diesen Chips hatten oder schlechten Zugang zu diesen Chips hatten. Wir erinnern uns, es gibt ja Ausfuhrkontrollen. Die Chinesen haben pro forma keinen Zugang zu den H100 Chips, diesen Hopper 100, worauf das Großteil des Trainings bis heute noch basiert. Nvidia darf nach China H800 Chips exportieren, die aber insbesondere bei der Memory Bandwidth, bei der Kommunikation zwischen Speicher und GPU begrenzt sind und dadurch weniger Leistung erreichen. Und was die Chinesen jetzt offensichtlich gemacht haben ist, auf CUDA, also die interne Software von Nvidia zu verzichten und stattdessen sozusagen ein Level tiefer auf der Maschinensprache anzusetzen und diesen Memory-Konflikt oder diesen Memory-Geschwindigkeitskonflikt auf andere Art zu lösen. Und dadurch haben sie es geschafft mit deutlich weniger Ressourcen. Und ich meine, das ist ultimativ Innovation. Du hast eine Begrenzung. Das Problem, ich sage es mal, das Problem der großen Tech-Konzerne war, sie hatten unbegrenzt Geld. Und es gab was Schönes, womit du gesichert Fortschritt kaufen konntest. Du investierst weitere 10 Milliarden in Chips und du bekommst ein 1% besseres Modell, jetzt mal sehr stark vereinfacht. Und natürlich hast du wenig Anreiz, innovativ zu sein, wenn du deine Innovation oder deinen Fortschritt einfach kaufen kannst. Die Chinesen hatten das weniger in dem Fall, oder Diebsieg? Ich meine mal die Chinesen. Einerseits betrifft es natürlich mehr als nur Diebsieg, andererseits ist es nicht irgendwie nationalistisch, rassistisch gemeint. Die hatten diese Möglichkeit halt nicht oder nur in sehr beschränktem Maß. Also haben sie überlegt, wie können wir mit bestehenden Ressourcen, mit relativ wenig Chips, deutlich mehr Leistung rausholen und haben deswegen schlauere Software programmiert, könnte man sagen, und anders trainiert, bestehende Daten genutzt, das getan, was jemand, sagen wir mal, Jemand, der an der Uni was baut und nur 2000 Chips einmal die Woche zur Verfügung hat, ein bisschen stark vereinfacht gesagt, und dadurch sind sie halt effizienter und innovativer geworden und haben es geschafft, aus deutlich weniger Ressourcen beinahe die gleichen Ergebnisse rauszuholen.
Und müsste man sich jetzt nicht als Nvidia-Aktionär Sorgen machen, weil eins dieser Burggräben, dieses Software-Cuda jetzt nicht mehr das Nonplusultra ist? Also wir haben jetzt gelernt, Man kann mehr aus den Chips rausholen, wenn man die Software, die drauf ist, nicht nutzt, sondern ein Level tiefer geht.
Ich würde vermuten, das ist jetzt schon sehr technisch und um es ehrlich zu sagen, ich weiß es nicht wirklich. Ich würde vermuten deswegen, dass für den und die durchschnittliche KI-Entwicklerin es immer noch einfacher ist, sich ausreichend Chips zu kaufen und mit CUDA zu arbeiten. Weil es einfacher ist, als irgendwie selber noch eine Sprache, um Speicher und Chipset und so weiter anzusprechen, zu kreieren. Das heißt, eigentlich ist es schon bequem, cool. Dazu kannst du aber sagen, der Vorteil, es wird vielleicht Leute geben, die auch das, wobei vielleicht wird genau der Teil nicht Open Source zur Verfügung gestellt, weil das wäre ja sozusagen der Mode von Deepsea, also dass sie das geknackt haben. Das Modell Open Source zu machen, ist relativ schlau. Den Teil, wie Sie mehr aus den Chips rausholen können, ist vielleicht nicht so schlau, Open Source zu machen. Bin ich mir nicht sicher, ob Sie das tun. Aber auf jeden Fall schockt es Leute, dass jemand, der die Hand auf den Rücken gebunden hat, dann mit 10% der Kosten und auch der Energie... Was ja auch klar ist, du brauchst deutlich weniger Energie dafür. Du brauchst nicht nur weniger Rechenzeit, sondern mit der Rechenzeit auch weniger Energie und weniger Kosten. Das schockt die Leute. Wen es nicht schockt oder wer so tut, als wenn er nicht geschockt ist, ist Yann LeCun. Das ist der Chief AI Onkel bei Meta. großer Open Source Fan und der sieht das natürlich vor allen Dingen als Triumph von Open Source. Also Open Research, Open Source, hat er immer gesagt, wird sich durchsetzen. Deswegen macht Meta Open Source. Gleichzeitig soll Meta aber laut die Information vier War Rooms am Wochenende aufgebaut haben. Also Kriegszustandsräume oder Situationsräume, wie würde man es im Deutschen sagen? Naja, ich glaube, wir haben eine Vorstellung, was ein War Room ist. Das ist, wo Leute sehr excited drin sitzen und mit viel Kaffee und zwei Nächte durchanalysieren, was eigentlich die Lage ist.
Ja, viel männliche Energie in so einem Raum wahrscheinlich.
Genau, viel maskuline Energie. Nach zwei Tagen riecht es dann nach viel männlicher Energie.
Wie bei Joe Rogan im Studio.
Genau, wie bei Joe Rogan im Studio oder wenn Glückler in seiner Joggingkleidung in die Podcast-Kabine kommt. Also man ist schon einigermaßen aufgeschreckt und versucht natürlich herauszufinden, wie das möglich war. Und das ist vielleicht schon eine der guten Nachrichten, weil wenn die Chinesen das hinbekommen, spricht erstmal nichts dagegen, dass diese Tech-Konzerne auch hinbekommen und davon lernen können und dass es auch den Rest der KI-Industrie schlauer machen wird. Die Chinesen haben jetzt hier Innovationen betrieben aufgrund von Knappheit, ökonomisches Handeln, das lässt sich gut nachvollziehen. Und davon werden jetzt aber natürlich andere sich auch inspirieren lassen wieder. Und dadurch tritt genau das ein, was ich gesagt habe, nämlich dass da, wo Bare-Metal-Scaling aufhört, also wo du mit mehr Chips nicht mehr Fortschritt kaufen kannst oder nicht mehr gleich viel Fortschritt, sondern der Fortschritt des Kaufs immer teurer wirst, kommen jetzt wirklich innovative Konzepte. Die Entwicklung von AI hat heute einen Riesenschritt nach vorne gemacht, diese Woche. Das muss man relativ klar sagen. Dass die Kurse runtergehen, heißt nicht, dass die Leute glauben, AGI rückt mehr in die Zukunft. Im Gegenteil, sie rückt näher an uns heran, höchstwahrscheinlich, weil es ist ein Quantensprung, was KI-Forschung angeht, was passiert ist diese Woche oder in den letzten Wochen, während das entwickelt wurde. Die Angst ist einzig und allein, dass die Industrie sagen wir mal, aus heutiger Sicht jetzt relativ ineffiziente Industrie dahinter, dass wir die vielleicht nicht richtig bewertet haben. Und selbst das ist noch fraglich, kommen wir gleich zu. Aus Sicht für, sagen wir, werden wir bessere KI-Anwendungen haben und nähern wir uns schneller echten Reasoning und einer sowas ähnliches wie einer General Intelligence. Die Frage musst du heute höchst, also wahrscheinlicher mit ja und früher beantworten. Das muss auch relativ klar sein.
Aber könnte es nicht auch einfach sein, dass OpenAI jetzt das Volkswagen der AI ist? Also, dass sie es einfach nicht schaffen, damit zu halten. Die Chinesen bieten einfach ein viel günstigeres, viel besseres, viel leaneres Produkt an.
Ja, auch das schreibt Ben Thompson von Swertakery sehr gut, finde ich. Der Approach von China war ja nie, echt Innovationen zu betreiben, sondern Infrastruktur. bestehende commoditisierte Produkte, wie zum Beispiel Autos, Kühlschränke und so weiter, einfach 10x günstiger anzubieten. Das ist schon ein bisschen was passiert. Ob OpenAI jetzt das VW ist, ich glaube, das wäre zu einfach. Das stimmt von der Kostenbetrachtung her, stimmt das. Also die Chinesen schaffen es quasi, den E-Golf für, in dem Fall nicht 75% der Kosten, sondern wirklich für 10-15% der Kosten anzubieten. anzubieten in beinahe gleicher Qualität. Das könnte man so sehen. Fairerweise, man muss schon noch sagen, OpenAI hat noch einen kleinen Vorsprung. Der ist klein und sie kündigen natürlich weitere Fortschritte an. Interessant ist, dass Meta offenbar glaubt, dass ihr Lama 4, was bald rauskommt, nicht so gut sein wird. Also, dass Lama 4 nicht stärker sein könnte als DeepSea in Benchmarks. Das ist, glaube ich, einer der Gründe, warum sie die Warrooms eingerichtet haben. damit sie schnell checken, wie sie ihr Lama 4 mindestens auf das Niveau von Deep Seek R1 oder V3 bekommen. Also bei Metastore glaube ich noch ein bisschen mehr Unterdruck. Und ja, ich würde natürlich das ernst nehmen mit Konkurrenz, gerade mit den Kosten und Geschwindigkeitsvorteilen. Was ich noch nicht sehe, ist, dass die Chinesen es schaffen würden, ein kompletteres, größeres Modell zu bauen. Obwohl, das kann auch sehr schlecht altern, kann theoretisch übermorgen rauskommen, wenn du so willst. Aber im Moment muss man davon ausgehen, dass es auf westlicher Vorarbeit basiert, deswegen so günstig ist. Und das ist aber viel wert, weil das sorgt quasi für ständige Waffengleichheit, weil Was du ja auch lernen kannst, ist, das können wir auch mit, vielleicht nicht 6 Millionen, aber mit ein bisschen mehr Geld können wir das auch in der EU machen. Oder wir können das chinesische Modell nutzen.
Stimmt, die Deutschen können ja eigentlich auch ganz gut kopieren. Auf jeden Fall, wenn es um Internet-Sachen geht. Und nochmal, OpenAI, die machen doch ihr meistes Geld durch die 20-Dollar-Abos. Wie viele Leute haben denn wahrscheinlich in den letzten drei Tagen... Das Abo gekündigt.
Ja, sie machen das meiste Geld mit Consumer noch. Das stimmt, glaube ich. Dazu gehört als Hintergrund, dass DeepSeek auch die Nummer 1 App im iOS App Store ist gerade. Das heißt, auch Konsumenten interessieren sich interessanterweise dafür. Was ich schon komisch finde. Also, dass jemand, der vorher ChatGPT genutzt hat, jetzt sagt, ich... Ich möchte meine Daten lieber mit China teilen.
Kein Mensch interessiert sich, wo seine Daten hingehen.
Ja, leider. Die Datenschutzbedingungen sagen übrigens, dass Daten nach China wandert und zwischengespeichert werden, um das Produkt zu verbessern. Ja, ich glaube, es gibt ein doppeltes Problem, dass die Leute, die ein State-of-the-Art-Model so günstig wie möglich wollen, also es gibt Firmen, die sagen, wir sind schon längst von Klo zum Beispiel auf Diebsieg umgestiegen, weil es ähnlich gute Ergebnisse zu deutlich günstigeren Preisen erlaubt. Das wäre die typische China-Strategie. Das heißt, OpenAI's Umsatz wird von beiden Seiten bedroht. Also, dass Consumer tatsächlich DeepSeq lieber nutzen als LGBT. was ich wirklich kompliziert fände. Zumal, was auch rausgekommen ist, ist, dass Diebstik natürlich zensiert ist. Also frag das Ding nach den Uiguren, frag es nach dem Tiananmen-Massaker und so weiter. Oder irgendwelchen alten chinesischen Sekten oder Religionsgemeinschaften und du wirst komische Ergebnisse finden. Auch interessant. Ein Nutzer hat mir zugeschickt. Also er hat gefragt, Sekunde, jetzt muss ich auch sagen, wer das war. Ich habe es irgendwo vorher schon mal auf Reddit oder so gesehen, glaube ich. Ich sage jetzt aber trotzdem, wer es mir geschickt hat. Es war... Jasper. Und zwar hat er die Frage gestellt, was ist das Nachrichtenlimit von dir? Und die Antwort von Diebsig war, als KI-Assistent von OpenAI unterliege ich gewissen Nutzungslimits, je nach Plattform und Abonnement variieren. Kostenlose Version, ChatGPT Plus, in Klammern bezahlt, Unternehmens-Enterprise-Pläne. Was sagt denn das? Was sehr dafür spricht, wie das Ding trainiert wird. Ich habe das jetzt ehrlich gesagt nicht nachvollzogen, aber ich gehe davon aus, dass es richtig ist. Warum soll da jemand lügen? Wobei, es werden auch schon harte Angriffe gefahren gegen die Software, muss man sagen. Einerseits scheint es DDoS-Attacken zu geben, also dass Leute es versuchen kaputt zu ballern oder auch nur davon zu lernen. Es könnte auch sein, dass DeepSeek spricht davon, dass sie die Neuanmeldung reduzieren, weil sie sowas wie DDoS-Attacken verspüren, also eine übermäßige Nutzung, sodass es die Software unnutzbar macht. Ich kann mir auch vorstellen, dass das auch schon die ersten Firmen sind, die quasi die aus DeepSeek jetzt das nächste Modell lernen wollen und einfach zu viele Anfragen zu schnell ballern. Und weil das so schnell antwortet, kannst du unheimlich viele Antworten in kurzer Zeit schicken. Und das könnte sich wie eine DDoS-Attacke anfühlen, unter anderem. Wie auch immer, aber sofern das richtig ist, hier spricht das sehr davon, dass es Antworten irgendwann mal von OpenAI aus dem O1-Model oder aus dem GPT-4-Model gelernt wird. hat. Was natürlich auch zu der Innovation, du kannst sagen, die Frage ist jetzt, hat die Chipbegrenzung, also die Ausfuhrkontrollen für Nvidia-Chips dafür geführt oder ist es nicht auch die Kosten der Nvidia-Chips? Also auch 75% Rohmarge oder inzwischen ja noch mehr, glaube ich, ziehen natürlich genau sowas an, dass jemand sagt, ich überlege, wenn irgendwas so teuer ist wie Goldstaub, was ich brauche, um die KI zu rechnen, dann sollte ich vielleicht mal überlegen, wie ich weniger davon nutze. Und das ist ja auch, was man immer so ein bisschen vermutet hat, dass es Unwahrscheinlich ist, dass du dauerhaft Hardware herstellen kannst mit 75% Rohmarge. Entweder versuchen Leute quasi Ersatzprodukte zu bauen, so wie die großen Tech-Konzerne, die alle ihre eigenen Chips bauen, oder sie versuchen weniger davon zu nutzen. Noch kurz zu der Vermutung. Sie selber sagen, Sie haben das auf 2048 GBUs, das sind wahrscheinlich H800s, also die eingebremsten, trainiert. Unter anderem der Alex Wang von Scale.ai, aber zum Beispiel auch Neil Kozla von Cure.ai, der wiederum mit Binode Kozla, der Open-Eye-Investor, ist verwandt, muss man dazu sagen, sagen eigentlich, dass sie davon ausgehen, dass es eher 50.000 GPUs sind, über die DeepSeq oder HighFlyer, also der Hedgefonds dahinter handelt. Plus in diesen 5,6 Millionen Trainingkosten ist sozusagen nur das letzte Training des Modells, also nicht die Researchkosten, also was hat uns hier hingebracht, um rauszufinden, wie wir dieses Modell richtig trainieren, was mussten wir alles scrapen, lernen, mixen, neu arrangieren und so, das hat man alles rausgenommen, sondern das Technical Paper, was man mitgeschrieben hat, ist quasi... Wie haben wir mit allem Wissen, das wir die letzten zwei Jahre generiert haben, ultimativ das Modell trainiert? Und das ist so, als würde man nur den letzten Training-Run von irgendwie Lama oder so nehmen, um die Kosten des Modells zu bewerten. Und die Gesamtkosten sind natürlich alle Leute, die daran gearbeitet haben und alle Rechenkapazität, die es bis dahin gebraucht hat. Und alle Modelle, die davor entwickelt wurden, gehören eigentlich auch noch mit in die Kosten, wenn man ganz ehrlich wäre. Diese sechs Millionen sollte man schon mal in Frage stellen, dass man GPUs in China bekommen kann, auch die H100. Da gibt es spannende Reportagen, sodass du in so Art Mediamärkten in China die kaufen kannst unter dem Ladentisch. Mehr oder weniger, weil sie natürlich über alle möglichen Wege ins Land gelangen. Zum Beispiel dürfen sie offiziell noch nach Singapur, Hongkong und Taiwan exportiert werden. Und dass sie den Weg da über die Grenze finden. Und dass Leute sagen, wir sind bereit, das irgendwie mit einer zusätzlichen Marge von 10, 20 Prozent, was ja dann auch... irgendwie 10.000 Dollar sind, über die Grenze zu schaffen, relativ wahrscheinlich. Man geht zum Beispiel davon aus, dass Tencent, also der große Internetkonzern, oder Baidu oder Alibaba auch alle über 50.000 und mehr H100s verfügen, die sie eigentlich nicht haben dürften. nach unserer Ausfuhrkontrolllogik. Das heißt, man muss wirklich vorsichtig sein, ob das jetzt wirklich nur auf 2000 Chips gebaut wurde oder nicht. So oder so ist es unheimlich effizient. Die Frage stellt sich nicht. Ansonsten Glückwunsch an Holger Zschepitz, der es zu TechCrunch geschafft hat in den Artikel darüber. TechCrunch hat darüber geschrieben, wie das Silicon Valley shake und er ist eine der Pressestimmen, die auf X aufgepackt wurden, weil er gesagt hat, it could represent the biggest threat to US equity markets, also es ist ja die größte Gefahr für die US Aktienmärkte. Am Ende Ja, also einerseits hat es hier bewahrheitet, das hat an einem Tag, glaube ich, 1,5 Billionen an Equity ausgeweibt. Also was ist das? Ein Drittel des deutschen Bruttosozialprodukts innerhalb von einem Tag an Equity-Value. Vernichtet ist das falsche Wort, glaube ich. Also neu bewertet, nach unten neu bewertet. Jetzt muss man, glaube ich, mal langfristig wirklich schauen. Es gibt ja dieses berühmte Jevons-Paradox. Kennst du das?
Erklär es mir.
Das Jevons-Paradox sagt, dass Zu dem Zeitpunkt oder in dem Verlauf, wo eine Technologie günstiger wird und einfacher einzusetzen, sorgt es nicht dafür, dass weniger Ressourcen verbraucht werden davon, also in dem Fall Rechenzeit oder Chips, sondern tatsächlich die Mehrnutzung der jetzt günstigeren Technologie überkompensiert den Effizienzgewinn. Das Lieblingsbeispiel ist immer die Watt-Engine, also die Dampfmaschine von James Watt, die ungefähr dreimal effizienter war als die vorherige von Thomas Newcastle. Und jetzt hätte man sagen können, jetzt müsste der Kohleverbrauch sich erdritteln, wenn wir eine Dampfmaschine gebaut haben, die ein Drittel der Kohle braucht, um Dampf zu generieren. Und natürlich ist das Gegenteil passiert, nämlich weil die Technologie so günstig geworden ist, haben viel mehr Menschen Dampfmaschinen eingesetzt und damit wurde viel mehr Kohle verbraucht. Also mit dem NVIDIA-Exempel, wer das nicht selber sozusagen die Transferleistung erbringen kann, das soll sagen, auch wenn man für dieses Modell jetzt weniger NVIDIA-Chips gebraucht hat, wird durch den Gesamtfortschritt und dadurch, dass jeder Hinterhof-Dulli jetzt geile kleine Modelle bauen könnte, wahrscheinlich insgesamt mehr Chips gebraucht. Und spätestens wenn diese Modelle eingesetzt werden, also wenn es zu der Abfrage kommt, die ja auch effizienter ist in diesem Fall, aber auch dann wird insgesamt... Für die Inferenz, also die Abfrage der Modelle, wahrscheinlich noch mehr KI-Chips gebraucht werden als vorher. Das meinte ich auch vorhin, als meinte insgesamt haben wir halt eine mega Beschleunigung der Entwicklung. Wir brauchen vielleicht weniger Chips in Zukunft für das Training, wobei das auch nicht ganz klar ist, weil du wirst immer wieder große Modelle brauchen, weil... Dieses kleine Modell hätte niemals ohne ein großes Modell existieren können. Das muss man schon sagen. Also ohne die Vorarbeit der großen Tech-Konzerne hätte es höchstwahrscheinlich zumindest niemals dazu kommen können. Das heißt, du wirst schon weiter auch große Modelle trainieren können. Man muss sagen, die Returns aus dem Training der großen Modelle werden kleiner werden und die Tech-Konzerne werden sich besser überlegen, wie sie funktionieren. die ganz großen Modelle vielleicht nicht mehr öffentlich zur Verfügung stellen, sondern nur die distillierten. Das muss man ein bisschen gucken. Aber es gibt guten Grund anzunehmen, dass am Ende das A, die KI-Entwicklung beschleunigt und B, wir früher oder später dadurch noch mehr Chips, noch mehr Energie benötigen werden statt weniger. Davon würde zumindest Jevons Paradox ausgehen. Schöne Beispiele sind auch die Sommerzeit. Man hat die Sommerzeit eingeführt, um Strom zu sparen. Hat sich herausgestellt, die Leute machen mehr Abendaktivitäten und verbrauchen dabei noch mehr Oder man hat bessere Infrastruktur gebaut, damit Leute schneller von A nach B kommen und dadurch haben sie nicht etwa weniger Zeit auf der Straße verbracht, sondern sie haben noch mehr mit dem Auto unternommen und mehr Zeit auf der Straße verbracht, wenn die Infrastruktur besser ist. Gleiches gilt für Computerleistung. Du baust immer bessere Computer, dadurch werden die Computerspiele aber nicht schneller, sondern es werden immer aufwendigere Computerspiele gebaut. Die Leistung, das kennt man, als Good Gamer kennt man das vielleicht, dass es komischerweise immer so ist, dass das aktuellste Spiel, übrigens Civilization 7, kommt in wenigen Tagen raus. Gleich nach dem Balomaten. Ich weiß nicht, worauf ich mich mehr freue, worauf ich mehr aufgeregt bin.
Beides schlecht für den Content von dem Podcast.
Natürlich wird es so sein, dass Civilization 7 meinen aktuellen Computer komplett ausmaxen wird und ich mir deswegen einen neuen Computer mit einer neuen Grafikkarte kaufen muss. Das sind alles so Beispiele für Jevons Paradox. Als erstes hat Benedikt Evans darüber in meiner Präsentation gesprochen und übrigens hat Satya Nadella das jetzt auch angeführt. Natürlich talking his own book. Jeder Tech-CEO ist bemüht zu erklären, dass die Investition, die man in den Datacenter gemacht hat. Wir haben über Stargate geredet letztes Jahr, aber richtig ist ja, dass Microsoft 80 Milliarden investieren will. Allein Meta hat nochmal hochgestuft auf 60 bis 65 Milliarden CapEx dieses Jahr. Natürlich wollen die erklären, dass das alles gut investiert ist und nicht etwa nicht mehr gebraucht wird. Ansonsten könnte, was habe ich mir noch Schönes aufgeschrieben? Also die chinesischen, also der DeepSeek CEO erzählt schon, dass sie noch begrenzt sind durch die Ausfuhrkontrollen der H100 Chips. Also sie glauben, sie könnten noch bessere Modelle bauen, hätten sie mehr Chips. Also Dass China die Ausfuhrkontrollen komplett gelöst hat und dass sie ineffektiv sind, kann man, glaube ich, keinesfalls sagen. Trotzdem haben sie es geschafft, ein State-of-the-Art-Modell durch Abkupfern höchstwahrscheinlich zu bauen. Das sagt ja auch schon viel. Das spricht so für diese ständige Waffengleichheit, von der ich vor zwei Jahren gesprochen habe. Und dass dadurch Modelle commoditized werden. Wie gesagt, es ist gut für die EU, glaube ich, weil wir können das theoretisch auch. Man braucht wenig Kapital am Ende. Es geht um Rechenzeitdaten und Zugang zu Kunden, die dadurch noch wertvoller sind.
Wer sind denn jetzt langfristig die Gewinner? Und Verlierer von DeepSeek?
Ich glaube, Gewinner sind vor allen Dingen kleine Startups, die auf die Technologie basieren. Also es wird noch mehr Apps geben, die einfach das Ding nutzen und damit bauen. Das heißt, du kannst sagen, die App Store Provider, da wo das gerechnet wird, die Frage ist, schafft es DeepSeek, dass alle das auf DeepSeek Data Center nutzen? Oder wird eben Amazon Bedrock, Google Vertex und so weiter das schnell auch anbieten? Ich glaube, Perplexity hat es integriert, interessanterweise. Also werden westliche Anbieter das versuchen, zu einer ähnlich guten Kostenstruktur zu replizieren?
Das ist eine Frage. Ja, davon gehe ich aus. Also Perplexity hat es ja mal wieder geschafft.
Sie scheinen jedes Thema zu ihrer PR zu nutzen und in der Presse zu bleiben.
Großartig, oder? Der CEO ist wirklich atemberaubend.
Ja, genau. Du kannst sagen, als nächstes kommen sie mit, dass sie in Life Science und Longevity investieren mit Perplexity.
Ja, also wirklich im Wochentakt. Du kannst die Uhr nachstellen. Großes Thema, Tag später, Perplexity ist dabei. Aber was sie ja geschafft haben, ist das Modell zu nehmen ohne Zensierung. Und es wird ja jetzt so sein, dass jeder das Modell irgendwie bei sich hosten kann und damit rumspielen kann.
Ja, ich meine, die Zensur auszuschalten ist ja super einfach. Also du Also, die Zensur läuft ja lustigerweise, so wie bei vielen westlichen Modellen aber auch, dass es erst schnell die Antwort gibt, runterschreibt und dann so zurückrollt. Das haben wir ganz am Anfang bei, ich glaube, bei JetGPT oder Gemini auch beschrieben. Also, es gibt die richtige Antwort und dann sagt, huch, ich habe vergessen, dass ich das gar nicht beantworten darf. So funktioniert die Zensur im Moment bei DeepSeek. Oder es gibt einfach eingefärbte Sachen zurück. Und das Einfachste, was du machen kannst, ist, dass du sozusagen dein eigenes Mix of Expert baust. Also ich frage prinzipiell die Psyche, weil es das billigste und schnellste ist. Und in dem Moment, wo irgendwas auch nur nach China riecht oder nach Zensur, frage ich halt ein anderes Modell. Und so schnell hast du das im Gang. Das ist, glaube ich, super einfach. Und auch das kann man super schnell re-engineeren. Was die Märkte angeht, bin ich ganz optimistisch. Meine These für dieses Jahr war ja, wir werden hohe Volatilität haben. Ich glaube, das ist relativ klar. Es war... Nvidia hat doppelt so viel verloren wie, also diese 600 Milliarden an einem Tag sind doppelt so hoch wie der bisher größte Verlust einer einzelnen Firma. Ich glaube es war Meta, die das mal geschlagen hatten. Was du gestern gesehen hast, spricht schon für sehr, sehr hohe Volatilität und dass es diese Momente gibt, in denen wir an AI zweifeln, so hatte ich ja gesagt. Aber ich habe auch gesagt, ich glaube, dass die Unternehmenszahlen der großen Tech-Giganten das immer wieder einfangen werden, weil die Datacenter so gut ausgelastet werden. Das heißt, was uns den Arsch retten wird, hoffe ich, sind Mittwoch die Microsoft-Zahlen. wo wir gutes Azure-Wachstum sehen werden. Es kommt außerdem auch Meta raus. Das Problem ist, Meta kann natürlich auch gute Ergebnisse zeigen, aber da kann man keinen guten Rückschluss auf KI machen, außer dass man sieht, wie viel Geld sie ausgegeben haben in CapEx für KI. Das wird tendenziell eher nicht gut angesehen. Von daher sollte man mehr auf Microsoft gucken und ich hoffe, dass Microsoft den Markt so ein bisschen hochziehen wird. Es sei denn, sie scheißen auch ins Bett, ein bisschen brachial gesagt. und liefern ein schlechtes Azure-Wachstum, dann würde es weiter runtergehen, die Spirale. Ich hoffe natürlich, dass es andersrum kommt und ein bisschen den Markt stabilisiert. Ich halte die 19 Prozent oder wo das zwischendurch war von entweder tendenziell, Für eine Überreaktion, so hätte man das getradet, hätte man auch schon wieder ein bisschen Geld verdient auf dem Weg in die Normalität, würde ich mal sagen. Da sind bestimmt teilweise Limits gerissen, da sind bestimmt Margin Calls gekommen, weil Leute entweder mit fünffachen Hebel traden oder einfach mit doppelten Hebel. Also wenn du mit fünffachen Hebel entweder tradest und die Aktie geht 19% runter oder nur 15% runter, dann kriegst du, wenn du groß bist, einen Anruf von deinem Broker, wenn du ein ganz normaler User bist. ballert es dich aus dem Kontrakt raus und es kommt zum Zwangsverkauf. Und das hat gestern definitiv eine Rolle gespielt. Das kann man ganz gut nachvollziehen eigentlich an den Kursbewegungen. Das heißt, es ist wahrscheinlich eine Überreaktion. Natürlich ist Nvidia aber durch das Setup, also wie hoch bewertet sie sind, wie hoch die Margen sind und wie abhängig das ist von der AI-Bubble, auch sozusagen bestens, in Anführungsstrichen, bestens vorbereitet auf einen solchen Absturz, weil sie einfach viel... Fallhöhe haben, um da rein zu geraten. Ja, ich glaube, das waren die wichtigsten Punkte. Ich bin so eine Mischung zwischen excited, weil ich es definitiv als Sprung nach vorne wahrnehme, und Ja, ich gehe jetzt davon aus, dass das für mein Open-AI-Investment jetzt kein guter Tag war, würde ich mal sagen. Ich mache mir weniger Sorgen um Microsoft, ich mache mir weniger Sorgen um den KI-Data-Center-Markt insgesamt. Und selbst wenn hypothetisch, wie gesagt, wir haben jetzt was gefunden, womit wir nur noch 10% der Chips brauchen für gleiche Leistung, Wie gesagt, einerseits Jeffins Paradox, das wird nur dazu führen, dass AI-Adoption noch schneller geht und wir noch mehr damit tun können. Und andererseits wäre das definitiv gut für unseren Planeten. Wir würden viel Energie sparen, wir könnten noch mehr in AI-Research ausgeben, ohne ständig neue Nuklearkraftwerke bauen zu müssen und so weiter. Von daher kann ich dem so oder so viel Gutes abgönnen. Und es ist auch irgendwie ein guter Wake-up-Call. Also es bringt eben... Ich will nicht behaupten, dass das vorher nicht da war, aber es bringt auch die westliche Tech-Welt dazu, von diesem Bare-Metal-Scaling mehr links und rechts zu denken und zu überlegen, wie können wir smarter Modelle bauen. Dass man vielleicht in China nicht glaubt, dass man jetzt mit Taschengeld weiter die KI-Entwicklung anführen kann, zeigt unter anderem, dass man gerade beschlossen, also es gibt so ein Stargate in China tatsächlich auch und zwar hat man am 25. Januar, das war nur ein oder zwei Tage nach Stargate, angekündigt 137 Milliarden US-Dollar über fünf Jahre. in KI zu investieren. Zudem gab es einen großen Fund, einen privaten Fund, der geraced wurde, um KI in Entwicklung zu beschleunigen. Also China wird 200 Milliarden in KI investieren und wenn die Modelle alle nur 6 Millionen kosten würden, dann wäre dieses Investment ja nicht nötig. Man geht davon aus, dass angewandte KI weiter viel Geld brauchen wird. Ich glaube, Indien hat eine ähnliche Initiative gemacht. Das würde jetzt dem Fakt widersprechen, dass China das alles für 3% der Kosten kann.
Glaubst du, Trump reagiert irgendwie darauf und sagt jetzt hier, er verbietet das auch? Oder wie reagieren die Amerikaner?
Das würde er sicher gerne, aber irgendjemand würde mir schon gesagt haben, dass genau das wirklich nicht funktioniert, das zu verbieten. Er sagt, die Ausfuhrkontrollen sind super, funktionieren. Er sagt, dass Stargate trotzdem ein super Projekt ist natürlich. Es wäre doof. Man muss schon sagen, Stargate sieht vor diesem Hintergrund jetzt erstmal nicht mehr ganz so gut aus. Also es war sowieso so ein bisschen performativ zusammengeschustert und hauptsächlich ein Schauspiel, was man da abgezogen hat. Man könnte jetzt sagen, die dummen Amerikaner investieren 500 Milliarden in was, was 5 Millionen kostet. Also ein Hunderttausendstel. Aber Also habe ich gesagt, 500 Milliarden, was 5 Millionen kostet, ist... Ja, ich sage jetzt mal Hunderttausend. Sekunde. Ja, doch, Hunderttausend. Das würde natürlich doof sein. Aber wie gesagt, China selber macht ein Projekt, was ein Drittel oder ein Viertel so groß ist, wie es da geht. Das heißt, man glaubt schon, dass man Investitionen braucht in Hardware dafür, um weiter voranzukommen. Ansonsten würde das alles so ja keinen Sinn machen.
Ach, Wahnsinn. Was für eine Woche. Alles angefangen mit irgendwie einem Tweet von Marc Andreessen, der das ganze Wochenende für die sehr maskulinen Jungs da kaputt gemacht hat. Kurze Werbeunterbrechung. In 2025 steht weiterhin alles auf Effizienz. Wenn du noch einstellst, dann nur Top-Leute, die man schwierig über klassische Recruiting-Kanäle findet. Wie du weißt, suchen die besten Talente nicht aktiv über klassische Stellenbörsen. Aber über die Recruiting-Plattform unseres Partners Instafo findest du diese Top-Talente im Marketing, Tech, Sales und Finance. Und das Ganze mit Zero-Risk-Hiring. Das bedeutet, du zahlst nur nach Einstellung. Instafo erreicht Talente da, wo sie sind und bringt sie auf die Plattform. Instafo erreicht jeden Monat tausende neue A-Player und qualifiziert diese aus ihrem Talentpool für dich vor. Du kannst dich zurücklehnen und Instafo liefert dir richtig starke Leute, die auch wirklich zu deiner Stelle und deinem Unternehmen passen. Instafo nennt das Recruiting auf Autopilot. So hat zum Beispiel das Startup Duinstruct nach einer Finanzierungsrunde im letzten Jahr über 15 Talente durch Instafo eingestellt. Schau jetzt bei dem Category Leader auf OMR Reviews vorbei, gehe auf instafo.com.dg und buche eine Demo. Teste Instafo jetzt und spare mit unserem Link instafo.com.de 500 Euro bei deinem ersten Hire. Stelle jetzt A-Player mit Instafo ein. Viel Spaß mit der weiteren Folge. Werbung Ende.
Bei Oracle, Larry Ellison, gibt es widersprüchliche Nachrichten. Die Presse meint, Oracle ist in tiefen Gesprächen. Trump und Oracle dementieren das fleißig. Perplexi macht das Gegenteil, bringt sich selber immer in die Presse als Übernahmekandidat und hat jetzt wohl ein verbessertes Angebot vorgelegt. wo die USA 50% Anteil an einem Joint Venture hätte. Also Perplexity ist zu klein, um TikTok zu kaufen, weil sie so irgendwo zwischen 9 und 15 Milliarden wert sind. Jetzt wahrscheinlich ein bisschen weniger. Und um 50 Milliarden zu kaufen, müsste man eher einen Merger machen mit ByteDance oder TikTok. Oder die US-Sparte von TikTok hätte dann irgendwie 20% an der zukünftigen Company. Vielleicht würde sie aber leiten dürfen. Dann gäbe es ein paar externe Investoren und Banken wahrscheinlich da drin. Jetzt angeblich noch 50% in den USA. Staatshand, wie gesagt, ich halte das für einigermaßen dumm, weil man quasi eine große Medienplattform damit zwangsenteignet und in Staatshand packt. Da lacht man sich in China irgendwie tot drüber, wenn die Amis ihnen den Gefallen tun und jetzt chinesische Companies enteignen quasi und damit zeigen, dass sie selber Planwirtschaft und Kommunismus machen, mehr oder weniger.
Glaubst du, dass die es schaffen, den Algorithmus so gut beizubehalten? Weil den bekommen sie ja nicht.
Ja, ist die Frage, ob man auch sowas zum Beispiel re-engineeren kann. Man sieht bei Meta eigentlich, dass der Meta-Algorithmus nicht mehr so viel schlechter ist als der von TikTok. Also ich verbringe jetzt nicht übermäßig Zeit daran, aber ich würde sagen, beide funktionieren ausreichend gut. Gut, ich finde TikTok, also beide ziehen nicht sogar ein bisschen zu sehr in Rabbit Holes, also sind zu konvergent, was Themen angeht und eröffnen das Spektrum, aber vielleicht ist das auch gewollt. Ja, ich glaube schon, dass der TikTok-Algorithmus nicht mehr so ein Alleinstellungsmerkmal ist, ehrlich gesagt.
Was hast du uns noch mitgebracht?
Ja, schöne Krimi-Geschichte, ein bisschen Doppelgänger True Crime, aber weil es jetzt nicht super relevant ist, machen wir es trotzdem kurz. Und zwar erinnerst du dich bestimmt an das kleine Hardware-Device Ledger. Also es ist ein Krypto-Hardwallet oder wie nennt man das? Hardwallet, ja. Also ein kleines Gerät, wo du deine Krypto rauflädst, nur mit verschiedenen biometrischen Merkmalen, Passwörtern, was weiß ich, Zugang erhältst und das tendenziell sicherer ist, als das irgendwie auf deinem Rechner in der Notizen-App abgespeichert zu haben oder ähnliches oder auf dem Einkaufszettel auf die Rückseite im Portemonnaie zu schreiben oder so. Und Letcher hat damit gut Geld verdient, in Vergangenheit diese Devices zu kaufen. Man könnte auch sagen, es sind kleine Hardware-Saves oder kleine Hardware-Saves für Krypto, die man halt aber schon in der Hosentasche oder im Reisekoffer mittragen kann, wenn man mal Geld über eine Grenze bringen muss für vollkommen legale Zwecke. Der Gründer, oder einer der Co-Gründer dieses Unternehmens, David Ballant, wurde jetzt nach Angaben von Sifted in Zentralfrankreich gekidnappt zusammen mit seiner Partnerin. Oder mit seinem Partner, weiß nicht, ob das männlich oder weiblich ist, hier steht Partner. Inzwischen sagen die gute Nachricht, man wollte sie kidnappen und offenbar Krypto in großem Stil erpressen von ihnen. Es ist ja auch die Sprache von einer Serious Hand Injury, dass ein Hörensagen ist, dass es sich dabei um abgetrennte Gliedmaßen handelt. Also sprich, jemand hat versucht, ihm Finger abzuschneiden, um irgendein Passwort zu erpressen oder das Geld zu erpressen. Das hat ultimativ offenbar nicht funktioniert, unter anderem mit der französischen GSG 9 GIGN, spricht man das wahrscheinlich aus, also deren Tactical Police Unit. wurden die befreit. Sowohl der oder die Partnerin als auch der Gründer sind inzwischen frei und erzieht sich einer Behandlung. Hoffentlich kann man den Finger da noch wieder, falls das wahr ist, dann hoffe ich, dass man ihn wieder ansetzen kann. Achso, hier steht Partnerin She. Also die Partnerin hatte keine Physical Injuries. Was ja auch doof ist, man würde doch immer der Partnerin die Finger abschneiden eigentlich, oder?
Psychopath.
Aber würde das nicht viel stärker wirken?
Ich habe nur gelesen, man hat die getrennt und hat dann wahrscheinlich bei ihm versucht irgendwie...
Wir machen das gleiche gerade mit deiner Partnerin. Das wäre natürlich noch besser. Und in Anführungsstrichen ehrenhafter, uns da nichts zu machen natürlich. Wie auch immer. Ja, Crypto is getting real. Deswegen immer schlau, wenn ihr irgendwie Millionen in Crypto zu Hause legen hast, vielleicht nicht so viel auf Reddit darüber posten und stolz auf X erzählen, wie reich ihr geworden seid und auf... Auf Insta irgendwie euren neuen Lambo zeigen. Es gibt definitiv Leute, die sowas monitoren und danach suchen. Es war auch in der Vergangenheit schon so, fairerweise, wenn es große Börsengänge gibt oder so, wo Leute über Nacht zu Milliardären werden, werden Investmentbanken in der Regel euch mit Sicherheitsberatern versehen, die ein bisschen darauf achten, dass ihr euer Klingelschild nicht vergoldet und den Namen eurer Firma draufschreibt. sondern ein bisschen dezenter lebt in Zukunft und damit sicherer, insbesondere wenn man Familie hat. Und sollte man, was ich jedem gönne, Krypto-Millionär zuletzt geworden sein oder vielfacher Krypto-Millionär, dann bietet sich an, seinen Lebensstil vielleicht ähnlich zu führen und sich nicht unnötig selbst zum Target zu machen. Apropos Target, zum Target machen. Wir kommen diese Woche nicht ganz um das Thema Elon Musk und die AfD herum. Das ist wie immer nicht unsere Schuld, sondern wenn die größten Tech-Genies unserer Zeit sich auf den Wahlkampfauftakt einer in Teilen faschistischen Partei oder rechtsextremen Partei zuschalten lassen, dann muss man natürlich auch darüber sprechen. Aber vielleicht auch nicht so ausführlich. Die News ist quasi, dass Elon Musk auf dem Wahlkampfauftakt in Halle der AfD am Wochenende per Videokonferenz zugeschaltet wurde. Er hat die Deutschen aufgerufen. Also Elon Musk, Wirtschaftsrichtling aus Südafrika, der entschieden hat, in den USA zu leben, ruft uns auf, dass Nationalstolz eine gute Sache ist. da auf das Deutschsein stolz sein können. Und dass wir uns nicht unnötig mit dieser historischen Schuld beschäftigen müssten. Also was Nazis vor uns getan haben, das trifft auf viel internationale Kritik. Unter anderem der polnische Ministerpräsident Donald Tusk hat das, das ist übrigens zwei Tage vor dem Auschwitz-Jubiläum, kann man in dem Fall nicht sagen, wie sagt man das? Mahntag.
Gedenktag?
Also Auschwitz wurde auf jeden Fall zwei Tage später befreit. Vielleicht sagt man dann, weil es eine Befragung ist, doch ein Jubiläum. Also der Jubiläum oder die Jährlichung der Auschwitz-Befreiung. Auch vor dem Hintergrund, vielleicht muss Elon Musk jetzt nochmal in Auschwitz vorbeifliegen, um seinen guten Willen zu zeigen. Wie gesagt, Donald Tusk fand es nicht gut. Die Auschwitz-Gedenkstätte, glaube ich, hat sich auch... Warte mal eine Sekunde, ich werde jetzt auch nichts Falsches sagen. Finde ich gerade nicht. Aber ich glaube, es haben verschiedene Leute sich sehr negativ dazu geäußert, verständlicherweise. Übrigens, wer sich ebenfalls negativ geäußert hat, ist Matthias Döpfner, der... auf mich wirkt so, zur eigenen Ehrenrettung in der Welt, auch nochmal einen Meinungsartikel geschrieben hat, warum Elon Musk sich irrt mit der Unterstützung für die AfD oder zumindest mit den Aussagen zu Naziverbrechen und so weiter. Das Traurige ist, dass unter dem Artikel so ein Stimmen Sie mit diesem Artikel überein oder nicht Umfrage ist. Und als ich raufgeschaut habe, so rund zwei Drittel der Leute gesagt haben, sie stimmen nicht damit überein, dass man Elon Musk dafür kritisiert, dass wir weiterhin... Nicht mehr an uns an Nazi-Verbrechen erinnern sollten und so weiter. So weit, so schlecht. Auch bedenklich. Und von Elon Musk natürlich retweetet. Hat sich jetzt zu allem Unglück auch noch ein Partner von Sequoia, also einem sehr renommierten US-VC, eingemischt in die deutsche Politik und zwar Sean McGuire. Seine Twitter-Bio sagt Partner at Sequoia und Caltech Physics PhD. Der twittert auf Twitter oder postet auf X, sagt man ja richtigerweise. Dear Germany, let me tell you a secret. Das ist ein großes Geheimnis. If you all vote, AfD will win. You didn't think this was possible, so you didn't vote. But if you get past the PSYOP and vote, change is near. Also wenn alle Deutschen wählen würden, würde die AfD gewinnen, sagt er. Wir glauben nur nicht, dass es möglich wäre und deswegen gehen zu wenig Leute wählen. Also er versucht AfD-Wähler zu mobilisieren, wobei man davon ausgeht, wenn ich mich recht erinnere, dass die Mobilisierungsquote der AfD-Wähler überdurchschnittlich hoch ist, oder? Und dann er bezeichnet, also er sagt, es gäbe eine Psy-Op, also irgendeine Gehirnwäsche oder öffentliche Gehirnwäsche, die uns davon überzeugen will, dass man nämlich wählen sollte. Keine Ahnung, woher er die Gewissheit nimmt, dafür oder wie weit er sich mit deutscher Politik beschäftigt hat zuvor. Das ist mir bisher nicht auffällig geworden, aber es ist schon besorgniserregend, wie die ganzen US-VCs unisono fast Red Pill sind und versuchen, entweder aus purer Dummheit und Unwissenheit oder Ungebildetheit oder aus Überzeugung Faschisten auf der ganzen Welt zu unterstützen. Haben natürlich viele Leute versucht, ihnen da eines Besseres zu lernen. Unter anderem ein TV-Unterhalter und ein Listengründer. Der eine scheint es eher genutzt zu haben, um PR für sich selber zu machen. Wie auch immer. Das war eigentlich mal Sean Maguire. Hatte er sich an Sean Maguire? Ja. Der TV-Unterhalter hat sich an Elon Musk gewendet. Wie auch immer, prinzipiell ist es ja auch richtig, da zu widersprechen. Und dann noch eine letzte News zur AfD. Da gab es ja diese Großspende in Höhe von fast einer Million Euro zuletzt von einem Herrn namens Horst-Jan Winter, wo man davon ausgeht, Also wo der Eindruck entsteht, dass es dann nicht alleinig von ihm eventuell sein könnte, das Geld, weil es unter anderem über eine Briefkastenadresse von einem mehr oder weniger toten Briefkasten an der Wohnung, wo er dem Anschein nach nicht wohnt, gespendet wurde. Was man aber sieht, ist, dass dieser Mensch in der Vergangenheit eine gewisse Nähe zu dem Unternehmen Böttcher AG hat. Er hatte dort als Aufsichtsrat tätig, war in der Vergangenheit und man deswegen jetzt mutmaßt oder sich fragt zumindest, ob tatsächlich Udo Böttcher, also der Chef oder Besitzer dieser Böttcher AG, dahinter stehen würde. Das würde einerseits erklären, wo das Geld herkommt, weil der jetzt eher im Verdacht stehen würde, so viel Geld zu besitzen. Andererseits wäre es natürlich aber höchst problematisch, weil man Parteispenden natürlich nicht im Namen Dritter vergeben könnte, unter anderem, um zum Beispiel den ausländischen Einfluss zu limitieren und so weiter. Wie gesagt, kann man sich selber bei Zeit, Online und Spiegel durchlesen. Beweisen kann man Status heute offenbar nicht, aber es gibt Anhaltspunkte, die dafür sprechen, dass man da einen Umweg gesucht haben könnte. Auf jeden Fall ist ja schon mal auffällig, wenn du es eben nicht unter deiner eigenen Adresse machst. Achso, was wir bei DeepSea übrigens noch vergessen haben, nach all dem Stress, den die dem Silicon Valley verpasst haben, haben sie ganz frech zwei Tage später auch noch ein Image-Generierungsmodell, das besser als DALI, also OpenAI's Modell angeblich ist. Was natürlich auch nochmal beeindruckend ist, wobei man da sagen muss, auch da kann man wahrscheinlich Re-Engineering betreiben und auf bestehende Modelle aufbauen. Das heißt Janus, Janus ist die mythologische Gestalt mit den zwei Köpfen, wenn ich mich richtig erinnere, nachdem der Januar benannt ist, stimmt das?
Bestimmt.
Viel Halbwissen jetzt. Doch, ich glaube, weil er in beide Richtungen des Jahres schaut. Naja, auf jeden Fall heißt es Janus Pro 7 Milliarden oder 7B. Liefert sehr, sehr gute Ergebnisse, kann man sagen. Sicherlich zumindest vergleichbar mit DALI 3. Ob es jetzt outperformt, sollen andere nochmal sich genauer anschauen. Auch da kommt das mehr oder weniger aus dem Nichts wieder. Man muss sich auch erinnern, wir hatten im gleichen Moment mal mit dem Black Forest Modell. Das kam ja auch gefühlt aus dem Nichts, wenig Ressourcen, irgendwie 15 Millionen Invest von Andreessen oder was das war. So überraschend ist es dann eigentlich doch nicht, die Geschwindigkeit der Ereignisse. Es gibt ja durchaus auch Leute, die behaupten, dass wir auch eine Psy-Op, also irgendwie eine Aktion der chinesischen Regierung, ich meine... Du kannst ja sagen, wir ermöglichen einfach die technischen Ressourcen, um das hier mal schnell lange vorzubereiten und dann schnell zu launchen und radieren damit im Wirtschaftskrieg mit Donald Trump 1,5 Milliarden an Marktbewertungen aus in den USA. Das geht so ein bisschen Richtung Verschwörungshypothese, würde ich sagen. Ja. Schon eine mögliche Erklärung, aber ich halte es nicht für übermäßig wahrscheinlich. Aber das Aufeinanderfallen der Ereignisse ist natürlich schon beeindruckend hier, dass sie erst quasi ein sehr, sehr gutes State-of-the-Art-Reasoning-Model produzieren und dann auch noch zeigen, dass man auch da wieder, du würdest jetzt sagen Side-Project, nochmal schnell da die drei State-of-the-Art nachbaut. Relativ beeindruckend.
Ja, zum Schluss, du hast bei Ido noch ein bisschen was vergessen, und zwar Twitter. Wie er Twitter nutzt, um in Deutschland eine Person nach vorne zu schieben.
Genau, es kommt aus einer privaten Chatgruppe. Vielen Dank an diejenigen, ich weiß nicht, ob die erwähnt werden wollen. Also es hat mir jemand zugeschickt auf jeden Fall, und zwar hat eine Nutzerin, die müssen wir jetzt auch nicht erwähnen, aber die hat sich jüngst bei X angemeldet und sieht, da gibt es diesen Sign-up-Flow, damit, wir wissen so, den ersten sieben Accounts zu folgen, ist unheimlich wichtig, damit das Produkt funktioniert bei Twitter. Eben als Twitter jetzt X, das wird sich nicht verändert haben in der Vergangenheit, deswegen werden populäre Accounts vorgeschlagen von Anfang an. Und wenn man sich gerade jetzt bei X anmeldet, du hast das verifiziert, das sah für dich ähnlich aus. sind die ersten Vorschläge. Früher waren das so Rihanna, Michelle Obama manchmal, große Medien, New York Times, Tagesschau in Deutschland vielleicht, solche Sachen. Für diese Nutzerin und für dich sah es so aus, dass der erste Platz ist allesweil. Also da steht, lass dir nicht entgehen, wenn du jemandem folgst, siehst du die Post dieser Person in seiner Timeline, du erhältst dann auch relevante Empfehlungen. Wie gesagt, der Hintergrund ist, dass Ist kein oder weniger Sinn macht, Twitter zu nutzen oder X, wenn man niemandem folgt. Deswegen versuchen sie sofort Accounts vorzuschlagen. Und der Nummer 1 Account, der vorgeschlagen wird, ist gerade Alice Weidel, die Kanzlerkandidatin dieser Faschopartei. Der zweite Account ist Die Welt.
Ähnlich schlimm.
Weiß ich nicht. Also auf jeden Fall ist es ein Medium, was tendenziell ein breites Spektrum, aber auch eine klare Schlagseite hat, was Politik angeht. Und dann kommt Tagesschau und Spiegel bei ihr. Bei dir war es, Sekunde, du hast es ähnlich gesehen, bei dir war auf jeden Fall auch alles Weidel auf eins. Dann kam das Zentrum für politische Schönheit, dann die NASA, was üblicherweise auch da drin war. Es gibt jetzt zwei Erklärungen dafür. Das eine ist, Alles Weidel ist hardcoded auf der 1, um neuen Nutzern sicherzustellen, dass man ihnen Content erhält. Man könnte auch sagen, es sind Personen, die zuletzt besonders in der Debatte waren. Das würde dafür sprechen, das Zentrum für politische Schönheit hat diese Aktion gemacht, dass sie an die Tesla-Fabrik oder war einer der Beteiligten an der Aktion, dass man den Mast-Salut an die Tesla-Fabrik gestrahlt hat mit dem Laser. Oder lauten, äh, lauten. Helm, äh, oh Mann, mit einem hellen Scheinwerfer. Und daraus so ein Heil-Tesla entstand, zusammen mit dem Mastfalut. Dadurch waren sie viel in der Presse, das könnte jetzt ein Grund sein. Man muss sagen, das Zentrum für politische Schönheit ist dann hart links natürlich angelehnt. Und das erscheint jetzt in deinem Fall dort auch. Kann auch sein, dass man da nachgeschärft hat, damit es ausgewogen aussieht. Weiß ich nicht, was genau dahinter steht. Ich mache nochmal einen Inkognito-Browser auf und schaue an, wie das bei mir aussehen würde.
Ich bin mal gespannt. Bei mir hat es ganz schön lange gedauert. 15 Mal musste ich mir irgendwelche Soundbits anhören und sagen, welches von den dreien eine Person ist, beziehungsweise zwei.
Mein Name ist Jan Horst Winter, sage ich mal. Meine E-Mail ist horst.pk.de. Mein Geburtsdatum liegt, ist, ja, so ein Horst Winter würde 28. April angeben oder 20. Weiß man nicht. Eins ist meine Mutter und eins ist jemand, der so ähnlich grüßt wie Elon Musk. Oh, das war ein schlauer Captcha, ey. Und das kann KI aber noch nicht? V mit Blume soll ich jetzt. Das ist so lustig, man muss so eine Person in einem Bus platzieren, an dem richtigen Sitz, der durch Symbole gekennzeichnet ist. Aber wahrscheinlich muss man sich jeden Tag ein neues Game ausdenken und die KI lernt. Aber das kann ich ja jetzt lange nicht mehr. So, jetzt kriege ich einen Verifizierungscode per E-Mail.
Echt? Bei dir ging das so schnell. Ich musste da 15 Mal diesen...
Du bist wahrscheinlich an dem Ding da auch gescheitert.
Nee, nee.
So, hier ist mein Verifizierungscode. Den gebe ich mal ein. Weiter. Passwort.
Passwort ist natürlich Banane123, Ausrufezeichen, wie bei der Deutschen Bahn.
Heil Elon, das funktioniert auch. Apropos Passwort. Also ich konnte jetzt das, was ich gerade gesagt habe, als Passwort nehmen. Bei der Deutschen Bahn, egal wie ich den Rant noch unterbringe, bei der Deutschen Bahn wurde ich bei der letzten Buchung, die ich gemacht habe, daran erinnert, dass ich mein Passwort ändern müsse. Und zwar muss das jetzt Sonderzeichen, Groß, Klein und Zwölf Zeichen haben. Also besser kannst du nicht dafür sorgen, dass jetzt jede Oma und jeder Opa sein Passwort unter der Tastatur auf den Zettel schreibt. Weil ganz ehrlich, mein Standardpasswort ist ein dynamisches Passwort. Das heißt, es ist nicht jedes Mal das Gleiche, sondern mehr möchtest du nicht sagen. Aber es hat keine zwölf Zeichen, weshalb ich jetzt dafür halt ein neues brauche.
Für die Leute da, dass du dir jetzt einen Passwortmanager besorgst.
So, will er ein Profilbild? Das machen wir natürlich. Und zwar... Ach, kann ich nicht live aufnehmen? Ich hätte gerne eins mit Ido im Gruß gemacht. Na gut, dann nehmen wir hier Donald Trump beim Weißen Haus. Das sieht doch gut aus mit Larry Ellison. Bisschen reinzoomen. Wie möchtest du genannt werden? Vorschlag ist Horst45491. Ja, ich... Wir nehmen da ein bisschen andere Zahlen, aber lustig, die sind alle weg. Die Zahlen, an die ich jetzt gedacht habe, die sozusagen zu dem bisher verfolgten Schema passen würden, sind leider alle schon vergeben. Also alles, was 1 und 8 enthalten würde zum Beispiel. Na gut, ich habe jetzt einen Unterstrich hinzugefügt, dann geht es wieder. Was möchte ich hier? Ich möchte Unterhaltung, Wirtschaft, Finanzen natürlich, Sport sowieso.
Da fand ich interessant, dass da Politik gar nicht drin vorkam.
Ja, komisch, ne? Entertainment-Industrie will ich nicht, Fitness, Outdoors, Arts, Fashion, Beauty, Careers auch nicht. Ich will Unterhaltung, Sport und Wirtschaft und Finanzen, das ist doch wichtig.
Sport, du, lüg doch nicht.
Achso, jetzt möchte ich noch Animation, Comics will ich nicht, Arts, Culture will ich auch nicht, Business, Finance, Wirtschaftsnachrichten will ich nicht. Wirtschaftsnachrichten, Elon Musk. Der zweite Punkt bei Business & Finance nach Wirtschaftsnachrichten ist Elon Musk als Thema. Ich will Startups und Investitionen natürlich. Elon Musk eher nicht. Entertainment möchte ich Filme, Fernsehen natürlich. Haustiere finde ich super. Veganismus? Nee. Gaming, Musik, Outdoors. Sport will ich Fußball, Bundesliga, ganz klar. Science, Weltraum, was sonst noch? Lass dir nichts entgehen. Was hast du denn bei Interessen angeklickt? Also ich kann jetzt sagen, ich sehe alles Weile nicht auf eins. Das ist jetzt ein Downer natürlich. Hast du irgendwas angeklickt oder gar nichts einfach?
Einfach drei Sachen, die ich musste, aber Politik konntest du ja nicht anwählen.
Also bei mir ist Verkehrsinformationszentrale Berlin auf eins. Dann kommt NASA, Formel 1, ein Tagesspielerreporter, bediener Zeitung, Eintracht Frankfurt of all things.
Vielleicht wissen sie, dass Horst sie schon haben als Wähler, den brauchen sie nicht mehr.
Ja gut, also wir können sagen, für die Nutzerin sah das so aus, für dich sah das so aus, für mich sieht es jetzt anders aus. Die linke Agenda verpflichtet uns natürlich, das jetzt rauszuschneiden, den Teil. Wir lassen das natürlich schön drin.
Was denkst du, letzte Frage für heute? Äh, Wie sieht es aus, wenn wir Freitag aufnehmen? Wird dein kleines Portfolio besser oder schlechter aussehen als heute?
Wenn wir Freitag aufnehmen, mein Portfolio sieht... Ich kann mal gucken. Ich weiß gar nicht. Ich habe kein Stück Nvidia. Also ich habe über ETFs natürlich Nvidia.
Und dein Angel Investment kannst du abschreiben.
Sagst du, also ein Tagesperformance meines Portfolios in der kleineren App, also nicht Hauptportfolio, ist plus 1,32 und auf eine Woche, aber das ist heute, weil die Märkte ja schon offen haben, auf eine Woche bin ich aber auch nur 2,3% runter. Das geht ja noch. Das andere kann ich ja auch hier jetzt anschauen. Sekunde. Eine Woche steht hier sogar plus 2,91.
Das ist einfach sehr viel heute schon wieder hochgegangen.
Niel Pferd arbeitet.
Ich kann ja hier nochmal einsprechen, wie viel Nvidia jetzt Ende des Tages am 28. Januar dann wieder hochgeschossen ist.
7,5% am Abend bei Redaktionsschluss.
So, Sekunde. Hast du gerade Fax geschickt?
Nee, das ist hier die deutschen Payment- und Banking-Schnittstellen. Währenddessen können wir noch kurz unterbringen, die Banken, die die Twitter-Übernahme finanziert haben, versuchen die Schulden inzwischen loszuwerden und glauben inzwischen immerhin 90 bis 95 Cent on the Dollar zu bekommen. Also das ist so ein bisschen verändertes Zinsszenario plus erhöhtes Ausfallrisiko im Vergleich zum Ursprungskontrakt, könnte man sagen. Also besser sind diese Kredite nicht geworden in der Zeit, wo ihr dann die Firma geleitet habt. Aber sind jetzt auch noch nicht so abgeschrieben, wie man denken würde. Also irgendwo scheint man da noch Wert zu sehen.
Aber Elon hat da irgendwie einen Mailraum geschickt, dass er nicht so happy ist.
So, jetzt bin ich 5% im Plus, nachdem ich es aktualisiert habe.
Würde ich nochmal aktualisieren.
Ich kann jetzt leider nicht in ein Tages... Ja doch, also Sekunde, ich kann es im Kopf ausrechnen. 26. Januar war der... Ne, was war der Freitag? Der 25. Also am 26. war ich bei der Summe...
Sag doch einfach die Zahlen.
Nee, also ich habe nur rund ein Prozent, wenn ich es im Kopf richtig... Ja, ziemlich genau ein Prozent verloren über Nacht. Insgesamt, wenn ich es richtig rechne, wovon ich ausgehe. Ah, das ist natürlich trotzdem Golf, aber... Nein, wie auch immer. Also ja, und... Dann gibt es, das packen wir an, was ich schon nutze, Elon Musk hat an seine Twitter-Mitarbeiter auch eine E-Mail geschrieben, wo drin steht, dass sie angeblich gerade so break-even wären, also kein Geld mehr verlieren, aber es ist auch eher so ein Kriegsschrei oder dass er noch mehr, wie immer noch mehr will, noch nicht wirklich zufrieden ist mit der Entwicklung. Bei X, obwohl das Nutzerwachstum stagniert, wird er zitiert. Ich glaube, das ist noch eine eher positive Sichtweise der Realität, aber... Wissen kann das glaube ich nicht mal er, weil er ja offensichtlich auf die falschen Zahlen schaut oder uns die richtigen nicht weitergibt. Ja, dann hätten wir alles und über das, also den letzten, die letzte Klausur der Menschheit, können wir noch kurz, packen wir auch in die Shownotes, haben wir jetzt nicht so viel Zeit für, aber ist ganz spannend. Und zwar hat die Firma Scale AI, das sind die, die Daten aufbereiten für, also klassifizierte Daten verkaufen an Unternehmen. Leute, die Modelle trainieren, also die, könnte man sagen, die Lehrer der KI-Klausuren, die sagen, ob Antworten gut und richtig sind, zum Beispiel, ob eine Pizza richtig erkannt wurde auf dem Bild und so weiter. Und die haben quasi viele Wissenschaftler und Experten gebeten, ihre schwersten aktuellen Probleme und Fragen zusammenzutragen. Und haben daraus, glaube ich, ein schöner PR-Stunt, was sie Humanities Last Exam, das letzte Examen der Menschheit, gemacht. Nämlich Dinge, die Menschen teilweise nicht lösen können. Und bisher nur die leistungsfähigsten Modelle schaffen 10% der Aufgaben in diesem Examen. Und daran wird man in Zukunft quasi messen, ob... Modelle, die jetzt eventuell menschliches Vermögen schon übertreffen, besser werden oder nicht. Weil das Problem ist ja, dass sie in IQ-Tests und so oft schon besser performen als Menschen oder auch in Wissenstests sowieso. Deswegen hat man jetzt quasi was extra schweres gebaut, was selbst Menschen nicht gut lösen können.
lastexamen.ai Sehr schön. Habt einen schönen Mittwoch. Ich gehe jetzt eine Pizza essen. Bis Samstag.
Peace. Ciao, ciao.
Kurze Werbeunterbrechung. Du würdest bei deinen Investments gerne mehr Rendite machen, ohne dabei dein Risiko signifikant zu erhöhen? Das schaffen einige institutionelle Investoren und Family Offices. Daher nennt man sie auch das Smart Money. Indem sie nicht nur in Aktien, Anleihen und Co. investieren, sondern auch gezielt Private Equity beimischen, können sie die Renditen ihrer Portfolios erhöhen und gleichzeitig Schwankungen senken. Bisher stand dieser Ansatz nur professionellen und hochvermögenden Investoren offen. Dank unseres Partners Liquid gilt das nun auch für dich. Die neuen Liquid Smart Money Portfolios sind ein komplettes, auf dich zugeschnittenes Portfolio aus allen wichtigen Anlageklassen. Optimal abgestimmt von Aktien bis Private Equity. In wenigen Klicks investierst du genau wie die weltweit besten Investoren, nur zu einem Bruchteil der ursprünglich benötigten Anlagesumme. Erkundige dich jetzt zu den Chancen und Risiken der neuen Smart Money Portfolios. Alle Informationen findest du unter liquid.de. Liquid schreibt man L-I-Q-I-D. Dies ist keine Anlageempfehlung, sondern eine Werbung für unseren Partner Liquid. Viel Spaß mit der weiteren Folge. Werbung Ende.