Doppelgänger Folge #541 vom 3. März 2026

Anthropic vs. Pentagon | Siri zieht in Googles Datacenter | SpaceX IPO #541

Das Pentagon erklärt Anthropic offiziell zum Supply Chain Risk. Stunden nach dem Bann nutzt das US-Militär Claude trotzdem für den Angriff auf den Iran, bei dem Ayatollah Khamenei getötet worden sein soll. OpenAI springt ein und unterschreibt den Pentagon-Deal innerhalb von 48 Stunden - mit subtil anderem Wording als Anthropics abgelehnter Vertrag. Eine Cancel-ChatGPT-Welle setzt ein. Apple verhandelt mit Google über eigene Server in Google-Rechenzentren für Siri-Anfragen. SpaceX reicht vertraulich seinen IPO ein.


Unterstütze unseren Podcast und entdecke die Angebote unserer Werbepartner auf ⁠⁠⁠⁠⁠⁠doppelgaenger.io/werbung⁠⁠⁠⁠⁠⁠. Vielen Dank! 


Philipp Glöckler und Philipp Klöckner sprechen heute über:

(00:00:45) Pentagon vs. Anthropic: Supply Chain Risk und Trump-Attacke

(00:33:21) Apple hostet Siri bei Google

(00:37:31) SpaceX IPO bei $1,75 Billionen

(00:45:46) Jane Street Krypto-Manipulation und Prediction Markets

(00:48:30) Larry Ellisons wachsendes Media Empire

(00:52:41) Florian Toncar geht zur DVAG

(00:55:02) Pips TED Talk ist online


Shownotes

Statement on Comments from the Secretary of War - linkedin.com

Trump fordert sofortigen Stopp der Nutzung von Anthropic-Technologie. - x.com

US-Schläge im Nahen Osten nach Trump-Verbot - wsj.com

OpenAI schließt Abkommen mit Pentagon nach Anthropic-Verbot. - edition.cnn.com

OpenAI akzeptierte Bedingungen, die Anthropic als ungeheuerlich ansah. - x.com

Sasha Kaletsky on X: "Biggest day of Claude app downloads in history” - x.com

Anthropics Claude erreicht Platz 1 im App Store. - techcrunch.com

Switch to Claude without starting over | Claude - claude.com

"Anthropic nutzt KI intensiv zum Codieren. - x.com

OpenAI behauptet "alle rechtmäßigen Zwecke" und Schutz der roten Linien. - x.com

Anthropic AI used in Iran attack despite government ban - report - trendingtopics.eu

OpenAI enthüllt weitere Details zur Vereinbarung mit dem Pentagon - techcrunch.com

Sam Altman über X: "Es war definitiv überstürzt und sieht nicht gut aus. - x.com

Außenministerium wechselt zu OpenAI, ersetzt Anthropic schrittweise. - reuters.com

Wie OpenAI dem Pentagon bei KI-Überwachung nachgab - theverge.com

Apple Discusses Google Hosting New Siri as Need for Cloud Help Grows - theinformation.com

SpaceX erwägt geheime Börseneinreichung bereits im März - bloomberg.com

Bark auf X: "Jane Street verkaufte täglich um 10 Uhr Bitcoin. - x.com

Kalshi annulliert Wetten auf Khameneis Absetzung wegen Todesbezug. - theverge.com

Larry Ellison Paramount Warner - wired

Florian Toncar wechselt von Politik zu DVAG Finanzvertrieb. - focusplus.de

Pips Ted Talk - ted.com


📧 Abonniere jetzt den Doppelgänger Newsletter auf⁠⁠⁠⁠⁠⁠ doppelgaenger.io/news⁠⁠⁠⁠⁠⁠ und erhalte jeden Montag die relevanten News der Woche 📧

👋 Aktuelle⁠⁠⁠⁠⁠⁠ Werbepartner des Doppelgänger Tech Talk Podcasts⁠⁠⁠⁠⁠⁠, unser Sheet und der Disclaimer 👋

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger-Podcast, Folge 541 am 4. März 2026. Ich bin Philipp Klöcker und telefoniere zweimal die Woche mit dem Tech-Analysten Philipp Klöcker. Und ich hole euch ein bisschen zurück in unseren Freitag-Wochenende. Also Freitagabend haben wir noch lecker zusammen Abend gegessen. Auf dem Weg zum Restaurant kam dann die News, dass OpenAI... jetzt wirklich geclosed hat. Jan hatte das USB-Mikro noch dabei und somit konntest du noch mal kurz was einsprechen. Aber um Mitternacht haben wir dann schon geschlafen.
Also die richtig große News des Wochenendes müssen wir heute besprechen. Was ist die große News für dich? Der Iran-Schlag oder ich finde die Entropic-Story hoffentlich spannender. Also aus unserer Sicht beides ist natürlich mega relevant. Das hängt ja auch zusammen. Das Gute ist, dieses Wochenende hat der Newsletter wirklich Sinn ergeben. Genau dafür war ja mal geschrieben, was ist, wenn am Freitagabend noch was passiert, was wir nicht aufgenommen haben und dann nicht mal im Außenstudio Französische Straße noch einsprechen können. Deswegen konnte man ein bisschen im Newsletter schon lesen, aber auch der ist inzwischen natürlich schon veraltert bei der derzeitigen Geschwindigkeit und Newslage. Wer den noch nicht abonniert hat, kann den gerne einfach doppelgänger Newsletter googeln und abonnieren, da bekommt man einmal meistens am Montagmorgen oder im Laufe des Montages so ein kleines Update für alles, was wir hier im Podcast vergessen haben oder nicht mehr die Redaktionstimeline geschafft hat. Wofür ich mich auch nochmal entschuldigen möchte, beziehungsweise das etwas richtiger stellen möchte, dass wir im letzten Podcast die Auseinandersetzung zwischen dem US-Kriegsministerium und Entropic, ich würde im Nachhinein sagen, dass ich da ein bisschen zu milde war. Also ich hatte in einem Nebensatz erwähnt, dass es eventuell auch so ein bisschen um Woke AI gehen könnte. Und ich glaube, das ist einfach ein größerer Teil. Im Newsletter habe ich das schon geschrieben. Das gehört schon dazu. Da kommen wir aber auch gleich drauf. Aber das würde ich gerne nochmal korrigieren. Fangen wir mal an. Also die Ausgangslage ist, wir gehen jetzt davon aus, die Open AI-Runde ist abgeschlossen. Open AI hat 110 Milliarden eingesammelt. Weil sie haben sie nicht eingesammelt, glaube ich. Aber sie haben eine Runde strukturiert, wo man sagen kann, es haben Leute Zahlungsverpflichtungen in Höhe von 110 Milliarden über die nächsten Jahre sind sie eingegangen. OpenAI war vorher 730 Milliarden wert, wird jetzt 840 Milliarden wert sein, wenn man das Geld so da schon mit reinrechnet, was ich glaube noch nicht in der Firma liegt und auch kurzfristig nicht da reinkommen wird, weil... Wir haben beschrieben, der Amazon-Deal ist conditional, erst wenn das IPO passiert oder man AGI entwickelt, wird überhaupt das Geld kommen. Das ist ein bisschen risikofreie Gratis-Rendite, aber das ist abgeschlossen. Dann gibt es diesen das letzte Mal noch schwelenden Konflikt zwischen dem Department of War unter Pete Haxes und der Trump-Administration und der KI-Firma. Anthropic von Dario Amode und seine zweite richtige Stellung. Ich habe im Newsletter aus Versehen Frau geschrieben. Das ist natürlich seine Schwester, mit der er das gegründet hat. Da, wo ich herkommen müsste, oft das Gleiche. Dieser Konflikt ist jetzt wirklich eskaliert. Einerseits hat Pete Texas, der Pentagon-Chef, selbsternannte Kriegsminister, und da kann man jetzt nicht sagen, dass das Kriegsministerium da seinem Namen nicht alle Ehre macht in den USA, nach Venezuela und jetzt Iran, hat quasi gesagt, dass er jetzt Entropic als ein Supply Chain Risk einstuft. Nochmal zur Erklärung, was das heißt. Das heißt nicht nur, dass das Pentagon alle Verträge mit Entropic kündigt und keine neuen abschließen wird. Es heißt auch, dass jeder, der mit dem Pentagon zusammenarbeitet, in seiner Lieferkette kein Entropic nutzen darf. Also die Werbeagentur von Unilever darf, wenn sie die Milch in die Cafeteria des Pentagons liefert, die Werbung nicht mehr mit Entropic macht. Ein bisschen zugespitzt formuliert. Also es hat einen großen Einfluss. Man muss davon ausgehen, dass viele Fortune 500 Firmen eventuell dann ihre Verträge kündigen müssten mit Entropic. Entropic sagt, sie schreiben selber auf LinkedIn und erfahren dafür viel Unterstützung, dass sie, die schreiben quasi, we see you in court. Also wir werden das gerichtlich klären lassen. Ich würde auch davon ausgehen, dass das kassiert wird. Das ist einfach ein noch nie dagewesener Eingriff, der US-Administration in die Marktwirtschaft ohne von außen erkennbaren Grund. Du kannst nicht begründen, warum das für die Sicherheit der Nationen wichtig wäre, warum man die Firma hier so geißeln muss, warum man sie brechen muss fast. Alles, was Entropic wollte, ist, dass ihre Software, ihre KI, die das Pentagon offenbar händeringend kaufen will. Alles, was man erreichen wollte, war, dass die KI nicht für die Massenüberwachung von Amerikanern und nur Amerikanern eingesetzt wird. Das heißt, da ist schon eingeschlossen, dass man andere Leute wohl massenüberwachen darf. Und ich erinnere an das Prison-Programm, das wir dank Edward Snowden jetzt kennen, wo vollkommen klar ist, dass US-Geheimdienste an Kommunikation in der ganzen Welt schnüffeln und das Ohr liegen haben. Insofern ist es auch berechtigt, davon auszugehen, dass das A weiter passiert und B, dass Entropic eine gewisse Verantwortung hat, dafür zu sorgen, weil ich möchte mal erklären, warum das so wichtig ist. Ich mache jetzt viele Klammern auf, Klammern zu, irgendwann hoffentlich auch wieder. Aber warum ist das so wichtig? Geheimdienstliche Überwachung funktioniert, zumindest das ist meine Lesweise, habe ich auch nicht vorbereitet, fällt mir ja jetzt gerade erst auf. Geheimdienstliche Überwachung funktioniert natürlich so, dass du Millionen von Gesprächen, Chatnachrichten, Konversationen überwachen musst. Das ist menschlich kaum möglich. Deswegen hat man in der Vergangenheit hauptsächlich auf gewisse Trigger-Worte geachtet. Also wenn jemand irgendwie Bombe, Attentat, Planung oder gewisse Chemikalien eventuell in Kommunikation erwähnt, dann hat das vielleicht ein genaueres Draufschauen ausgelöst. Was KI natürlich erstmals kann, ist, dass sie selbst, wenn ich sehr verklausuliert über was spreche zum Beispiel, also sie kann den Sinn, den Inhalt einer Unterhaltung entdecken, auch wenn das Hauptwort nicht funktioniere. Ja, wenn ich irgendwie, ja, mir fällt es schwer, ein Beispiel zu generieren, aber wenn ich das Wort Pizza nutze, so wie einen gewissen Ring, um was zu verdunkeln oder so, dann könnte es eine KI zum Beispiel trotzdem schaffen, zu verstehen, dass hier ein Risiko gerade entsteht. Das heißt, KI ist das beste Massenüberwachungstool, was es gibt. Wenn ich der ganzen Welt zuhören würde, erlaubt mir KI, solange ich ausreichend Rechenzeit habe, die auch einzuordnen nachrichtendienstlich. Ich muss nicht mehr darauf warten, wer ist eine gefährliche Person oder was sind gefährliche Worte, sondern ich kann jedes Gespräch auswerten lassen, einsortieren in eine gewisse Eskalationsstufe und das macht nachrichtendienstliche Arbeit natürlich spannender als je zuvor. Ich will nicht sagen, dass das nicht vorher auch schon passiert ist, dass man da sicherlich vorher auch schon Machine Learning genutzt hat, aber um quasi Kommunikation einzuordnen und zu klassifizieren, ist KI das beste Tool. Und deswegen ist es auch so wichtig, dass Entropic sich dagegen wehrt, glaube ich. Und deswegen hat man um diese Red Line auch so lange gekämpft. Und Entropic hat viel riskiert, muss man sagen. Also man sieht ja, sie werden jetzt wahrscheinlich Hunderte von Millionen an Verträgen verlieren. Nicht nur mit der US-Regierung, sondern eben auch von Firmen, die wegen der Supply Chain Risk jetzt Entropic fallen lassen müssen. Ich finde es gut, dass man im Silicon Valley endlich mal einen CEO erlebt, der das Rückgrat hat, das zu riskieren und sagt, mir ist mein Geld nicht wert. nicht wichtiger und insofern verdient Entropic da nach derzeitiger Nachrichtenlage zumindest und meiner Interpretation viel Respekt. Das war die eine Sache, also das Department of Defense oder WAR hat diesen Vertrag quasi für gescheitert erklärt. Damit hat man Entropic als Supply Chain Risk definiert. Zusätzlich hat dann Donald Trump auf True Social noch, also mindestens hinterhergetreten, würde man sagen, erklärt er quasi dieses Thema dann folgendermaßen. Natürlich größtenteils All Caps, also groß geschrieben und so in seiner typischen Art. The United States of America will not allow a radical left-woke company to dictate how our great military fights and wins wars. That decision belongs to your Commander-in-Chief and the tremendous leader I appoint to run the military. Es kann nicht sein, dass eine radikale, also eine linksradikale woke Firma diktiert, wie unser Militär kämpft und siegt, sondern der Commander-in-Chief, was der Präsident ist, und sein designierter Staff, also der P-Texas, müssten das natürlich machen. Das heißt, Donald Trump, also man muss sich ja fragen, warum Ich habe gerade versucht zu erklären, warum das für Entropic so wichtig ist. Und wir müssen uns auch fragen, warum ist das für die USA so wichtig? Weil Entropic sollte ja unterschreiben, dass sie die USA machen lassen, was sie wollen, mehr oder weniger, oder das Pentagon, solange es gesetzlich ist und man gegen keine Gesetze verstößt. Und selbst das war Entropic nicht genug, interessanterweise. Entropic wollte zusätzlich, dass Massenüberwachung und autonome Drohnen, die selber über Leben und Tod entscheiden können, ausgeschlossen waren. Das waren die Red Lines, die Antropix zusätzlich ausschließen wollte. Das heißt, die dachten, eine Regierung, die sich an die Verfassung hält, reicht ihnen quasi nicht. Jetzt muss man sich überlegen, warum da überhaupt so hart gekämpft wird. Warum kämpft das Pentagon so stark, um das Recht, Dinge tun zu können, die ihnen von der Verfassung verboten sind? Das ist die erste Frage, die man sich stellen muss. Die andere ist, warum riskiert Entropic so viel, um das zu verhindern? Das spricht für einen starken moralischen Kompass, nach derzeitiger Lage. Kann immer noch sein, dass das schlecht altert, aber nach derzeitiger Lage spricht das für einen sehr starken moralischen Kompass und viel Rückgrat und wirklich die Bereitschaft, auf massives Geld und Bewertung verzichten zu müssen, um das durchzusetzen. Und das andere Thema, also die andere Interpretation ist, warum das so wichtig ist, dafür spricht jetzt vielmehr der Post von Donald Trump, ist, dass es halt ein weiterer Fall von einfach im weitesten Sinne Kulturkampf ist. Also, dass er diese Firma jetzt als linksradikal und woke nennt, nur weil sie die Überwachung der eigenen Bevölkerung verändert. Das muss man überlegen. Das ist die Definition von linksradikal und woke. dass du verfassungstreu bist in den USA inzwischen. Was einfach moderater, zentristischer Konsens sein soll, nicht mal besonders progressiv, wird inzwischen als linksradikal und woke bezeichnet. Da sieht man, was für ein Weibschiff es gibt in den USA und wie rechts fernab der Verfassung dieser Administration agiert. Und ich habe das im Newsletter schon versucht darzustellen und in früheren Podcasts, dass das schon, glaube ich, Teil dieses Konflikts auch ist, dass man diese letzte linke Firma so ungefähr, die glaube ich nicht mehr besonders links ist, die ist einfach nur anständig. Also es findet sich, glaube ich, null linkes Gedankengut irgendwo in den Topics. Es sei denn, man sagt, anständig sein, die Verfassung ehren, die Integrität der Amerikaner ehren, das ist linksradikal. Wenn das so ist, dann ist es eine linksradikale Kampagne. Ansonsten ist sie im schlimmsten Fall einfach nur eine anständige Firma, wenn man so möchte. Das ist die Einordnung von Trump. Er hat daraufhin zusätzlich alle anderen Departments, also Ministerien, angeordnet, die Verträge mit Entropic zu kündigen, mit einer Übergangsphase von sechs Monaten. Das spricht wiederum für zwei Dinge, glaube ich. Das eine ist, dass Claude schon so tief integriert ist teilweise in Ministerien, dass es gar nicht so einfach ist, es loszuwerden. Andererseits ist es natürlich Donald Trumps typische Verhandlungsstrategie, dass er eigentlich versucht, erstmal dem anderen ordentlich einen von Latz zu knallen, in der Hoffnung, dass er an den Tisch zurückgekrochen kommt. Deswegen sagt man, er gibt ihn sechs Monate, damit ist der wirtschaftliche Schaden eigentlich angerichtet. Das ist ja so ein bisschen wie der TikTok-Deal, den er immer weiter verschoben hat. Damit ist der wirtschaftliche Schaden erstmal angedroht. Du verlierst alle seine Verträge, wenn ich will. Also man projiziert erstmal Macht. Gleichzeitig gibt man sich selbst aber Verhandlungszeit, indem man sagt sechs Monate, aber bis zu dem Tag könnte man ja noch zu einer Verhandlung kommen. Aber Entropic weiß, es geht jetzt um viel. Es sieht aber nicht so aus, als wenn Entropic viel darum geben würde, muss man auch sagen. Das ist eigentlich alles noch die Präambel für das, was jetzt dann wirklich passiert. Nachdem Trump angekündigt hat, dass kein US-Ministerium mehr Cloud benutzen wird, nachdem insbesondere das Pentagon, gesagt hat, dass sie Entropic ein Supply Chain Risk nennen in Zukunft. Da haben die USA und Israel zusammen den Iran angegriffen und nach aller Gewissheit den geistigen Führer Ayatollah Khomeini angegriffen. umbringen können. Und dabei haben sie die zu dem Zeitpunkt schon gebannte und ein Supply Chain Risk genannte Software Entropic erneut genutzt. Wie schon in Venezuela, wie man inzwischen weiß. Da frage ich mich auch, wie Alex Karpf sich wohl fühlt, wenn er da immer zugucken muss, wie das US CENTCOM, also die Befehlszentrale quasi der Streitkräfte im Nahen Osten, da immer auf Cloud zurückgreift, weil wir dachten ja eigentlich, dass Palantir dafür da gewesen ist. Vielleicht ist aber auch Cloud in Palantir integriert, wer weiß. Wie auch immer, auf jeden Fall wurde Stunden, nachdem man gesagt hat, diese Software ist ein Supply Chain Risk, was wir nicht mehr riskieren können, weiter zu nutzen, hat man sie eingenutzt, um den dritten Weltkrieg zu starten, mal ein bisschen übertrieben gesagt, oder die gesamte Golfregion in Brand zu setzen, durch Ketteneffekte und so weiter. Das inzwischen, auch für die Streitkräfte der USA. Und auch deswegen ist es, glaube ich, schwer, sich einfach davon zu lösen. Jetzt fragt man sich vielleicht, wozu wird eine KI eingesetzt auf dem Schlachtfeld? Wozu hat man in der Vergangenheit vielleicht auch Palantir oder nutzt man immer noch Palantir auch? Es geht einerseits darum, um Informationen in Echtzeit auszuwerten. Stell dir vor, da sitzt jemand, also wir wissen ja immer, im weißen Operation Room sitzen dann Leute vom Twitter-Feed bei echten Nachrichtendiensten oder in der Feldzentrale. sind es dann hoffentlich noch ein paar mehr Informationen, aber um die live zu verarbeiten, also was passiert gerade an welcher Stelle, da kann KI natürlich helfen, Daten zu sortieren, was ist wirklich wichtig, was ist dringend, so eine Art Eisenhauer-Matrix erstellen, worum müssen wir uns sofort kümmern, was ist ein Risiko, was ist nur Rauschen im Blätterwald. Das heißt, die Einordnung von Daten und Nachrichten kann KI sozusagen kondensieren. Umso wichtiger, dass sie dabei nicht halluziniert, natürlich auch vollkommen klar. Dann die Identifizierung von Angriffszielen. Also wenn man sich fragt, warum werden da in welcher Reihenfolge was angegriffen? Auch das macht inzwischen KI, also zu sagen... Stromversorgung ist wichtig. Es gibt so die alten historischen militärischen Reihenfolgen, dass man Fernsehsender, Stromversorgung, sowas versucht. Frühplatz, Luftabwehr natürlich als erstes. Aber in welcher Reihenfolge ich zum Beispiel Luftabwehr platt mache, um möglichst wenige Flugzeuge bei den Angriffen zu verlieren, das kann eine KI zum Beispiel super simulieren. Also in welcher Reihenfolge solltest du die Luftabwehrbasen bombardieren, um beim Bombardieren möglichst wenig Gegenwehr zu erwarten, wenn da die Tarnkappenbomber losfliegen. Und dann, das ist der dritte Punkt, ist die Simulation von Kampfszenarien. Das hat erklärt hier, ich lese das so ein bisschen ab übrigens, von Trending Topics, will mir das gar nicht aneignen, bin logischerweise kein Militärexperte. Die Simulation, das kann zum Beispiel das sein, was ich eben beschrieben habe, oder dann, ich meine, mit anderer Gegenwehr außer Luftabwehr muss man beim Iran erstmal nicht rechnen, dann kommt sozusagen der nächste Effekt, sind dann die Gegenschläge mit Drohnen und Raketen. Aber das kann man eben auch mit KI gut erzeugen. simulieren und kann dann die eigene Gegenwehr zum Beispiel darauf abstimmen und so weiter und so fort. Und der große Vorteil ist natürlich, dass KI das vor allen Dingen schneller, also mit der Übermacht an Informationen, die auf einen einprasseln in so einer Operation, kann KI natürlich viel schneller umgehen, viel schneller Entscheidungen vorbereiten, idealerweise noch nicht selber treffen. Das ist ja was man versucht unter anderem zu verhindern, dass KI das noch nicht selbst macht, weil sonst sind wir ganz schnell in einem irgendwie gegenseitigen Atomschlag. Da gibt es auch Gerade Studien, dass die KI relativ früh dazu neigt, auch nukleare Waffen zu nutzen. Wobei, nukleare Waffen gibt es ja wiederum taktische und strategische. Nicht jede nukleare Waffe ist auch eine Massenzerstörung gleich. Genau, also dafür wird Claude eingesetzt und es scheint so, als wenn das Pentagon Claude wirklich mag. Also auch wenn sie nach außen alles andere sagen gerade. Aber in Venezuela hat es ja wohl einen höchst effizienten Schlag ermöglicht. Das gleiche scheint jetzt erstmal nach heutiger Lage beim Iran der Fall zu sein. Wir wissen auch, der Iran greift sozusagen die ganze Region an. Ich würde behaupten, einfach um das Trefferfeld größer zu machen. Weil einfach gesagt, uns juckt das einen Scheiß, ob im Iran... Zivilisten sterben oder oder oder. Die allermeisten Leute von uns interessiert das relativ wenig. Irgendwie, wenn unsere Omas in Dubai festhängen oder ähnliche Sachen, das ist natürlich direkt ein Problem für die ganze Welt. Oder wenn Ölraffinerien in Saudi-Arabien betroffen werden, so sorgt man für einen gewissen Leidensdruck auf der ganzen Welt und verschafft sich auch eine bessere Verhandlungsposition, würde ich mal behaupten. Und deswegen denke ich, Versucht der Iran da einfach die ganze Region in Mitleidenschaft zu ziehen, weil das letztlich so ein bisschen die Geiseln, das ist ein schlechter Beispiel mit dem Gazastreifen, aber ich würde mal behaupten, man nimmt die anderen Länder in Geiselhaft, damit ein gewisser Verhandlungsdruck entsteht, das vielleicht doch noch friedlich zu lösen.
Ich habe am Wochenende überlegt, KI wird ja jetzt schon zu einer großen Kriegswaffe. Es ist ein großer Vorteil, diese Tools zu haben, zu nutzen und so weiter. Muss man befürchten, dass Amerika anfängt zu sagen, ihr dürft jetzt eure Tools nur noch in verschiedene Länder ausführen, nur noch die Länder, die nicht woke sind? Glaubst du, das könnte die Zukunft sein? Ähnlich wie man Chips nicht mehr nach China setzen dürfte, sagt man jetzt, hey, wir wollen... Entweder seid ihr auf unserer Anti-Vogue-Linie oder halt nicht. Und wenn nicht, dann kriegt ihr halt nicht die neuesten Open-AI-Modelle.
Ja und nein. Also einerseits hat die USA von ihren westlichen Alliierten jetzt relativ wenig zu befürchten. Aber gleichzeitig... ist es natürlich ein erhebliches Risiko und ein Vorteil, den man sich sichern will. Also das ist so, wie du hast das neueste Waffensystem, den schnellsten Panzer, die beste Überschallrakete oder so ein militärischer Vorteil ist so eine Software. Und ich gehe davon aus, wenn du jetzt dir so einen Angriff planen würdest, wird Claude das für dich nicht tun. Also ich gehe davon aus, dass da schon Guardrails in dem Programm drin sind, also dass die USA genau das verhindert, dass es von anderen Staaten so eingesetzt wird. Also ich glaube nicht, dass wenn Belgien sagt, die Luxemburger nerven uns, planen uns mal hier, wie wir über die Ardennen kommen oder was auch immer man da tun muss, dann bin ich mir sicher, dass Claude das nicht tun würde derzeit. Also vielleicht wegen Guardrails, aber auch, weil die USA das verhindern würden, könnte ich mir vorstellen. Spekulation, aber... Aber ganz sicher wird die Technologie nicht den Feinden der USA zur Verfügung gestellt werden. Es wird für KI, zumindest für einzelne Funktionen, sicherlich so eine Art Exportrestriktion geben. Genau, das ist natürlich noch längst nicht das Ende der Geschichte. Also Entropic ist gebannt, trotzdem nutzt man es für den Angriff auf den Iran. Fast aus dem Nichts, nachdem er zunächst seine Proforma-Solidarität bekundet. Also Sam Ortman sagt erstmal... Ja, wir sind ja auch auf der Seite von Entropic und wir glauben prinzipiell, dass das eine Company ist, die versucht, das Richtige zu tun, was Sicherheit angeht. Während er im Hintergrund längst dabei ist, einen Deal zu verhandeln mit dem Pentagon, den er innerhalb von 48 Stunden auf wundersame Weise fertig bekommt. Dabei bestehen sie darauf, dass sie Guardrails hätten. Also OpenAI versucht, den Eindruck zu erwecken, dass man all das, was Entropic wollte... ebenfalls so sieht. und den Deal hinbekommen hätte, so ungefähr, man hätte sich nur nicht genug Mühe gegeben bei Entropic, weil wenn man das liest, wir wollen jetzt nicht in jedes Wort in den Deals gehen, da findet gerade so eine juristische Wortklauberei statt, das würde jetzt zu weit führen, nachdem wir uns schon irgendwie in Militärwissenschaft verirrt haben, aber einfach gesagt, muss man sich natürlich fragen, warum OpenAI einen Deal machen konnte, den Entropic nicht machen konnte. Das Wording ist minimal anders, bei OpenAI steht mehr oder weniger, um das mal alles zusammenzufassen, die Wortklauberei dass eben doch Dinge, die lawful sind, die also nicht gegen das Gesetz verstoßen, im weitesten Sinne ermöglicht werden von OpenAI und dass man sich an gewisse nachrichtendienstliche Erlasse hält. Da geht es um die Executive Order 12333 und noch ein paar andere Gesetze. Das sind aber letztlich die, die auch in der Vergangenheit schon die Überwachung betrachten. ermöglicht haben. Das sind die, unter denen Prison zum Beispiel passiert hat. Wenn ich zum Beispiel mein Gespräch mit jemandem in den USA abhören würde, dann kann ich auch im Ausland Amerikaner überwachen, mal ganz einfach gesagt. All das ist nicht ausgeschlossen. Dadurch, während es von Entropic eben ausgeschlossen worden wäre. Das heißt, dieser Deal scheint eben nicht der gleiche zu sein, wie Entropic, wofür ausspricht, a, dass er so schnell geschlossen werden konnte, B, dass OpenAI bis heute noch damit befasst ist, zu erklären, dass es der gleiche Deal ist. Also, wenn ich den gleichen Deal hätte, dann wäre das nicht so kompliziert. Dann würde ich einfach eins zu eins das Wording nehmen, dann könnte Anthropic sagen, genau das ist, was ich hier nicht unterschreiben wollte und fertig. Aber man hat das Wording minimal verändert, so dass es, zumindest sagen Beobachter das und Experten und ich glaube, The Verge hatte jemand, der in dem Prozess mit drin war, also in dem Verhandlungsprozess mit drin war, der meinte, es ist eben ein sehr diffiziles komplexeres anderes Wording als in dem Anthropic-Vertrag. Und deswegen gibt es eben diese Lücke, dass man das tun kann, was man angeblich nicht tun konnte. Das heißt, OpenAI war sich nicht zu schade, das sofort zu nutzen, diesen Hunderte-von-Millionen-Vertrag aus dem Müll zu grabbeln, wie man Sam Ortman so aus vergangenen Schilderungen kennt. Das wiederum Hat dann dazu geführt, dass jetzt so eine Art Cancel-Chat-GPT-Movement entstanden ist. Also fairerweise, schon nach dem Übergriff vom Pentagon auf Entropic begann so eine Solidaritätsbekundung, also dass Leute gesagt haben... ich steige jetzt auf Cloud um oder ich kaufe Cloud zusätzlich oder ich upgrade meinen Cloud-Abo und gebe mehr Geld bei Entropic aus, weil ich Respekt vor diesem Leader habe, der sich da gerade macht gegen das Pentagon. Und als OpenAI jetzt in der Situation noch sagte, ja, wenn die nicht wollen, dann hole ich mir doch den Dreck und mache mir die Finger schmutzig. Das hat es natürlich noch einfacher gemacht, aus dem Solidarität mit Entropic ein Cancel-Chat-GPT und Geh-zu-Cloud-Movement zu machen. Jetzt ist es sehr schwer zu beziffern, also wenn man jetzt in Social Media auf LinkedIn schaut, auf Threads, Dann sieht man Leute, die alle in den Kommentaren schreiben oder selbst auf Instagram. Leute, die in den Kommentaren schreiben, vielen Dank, aber ich kündige jetzt mein Abo und gehe zu Claude. Wie viele von den hunderten Millionen Menschen, die ChatGPT nutzen, das dann wirklich machen, ist nicht ganz einfach zu beziffern. Was man schon sieht, glaube ich, was man sagen kann, ist, dass, wenn man auf Google Trends oder SimilarWeb geht, dass es definitiv die beste Woche in der Geschichte von Cloud ist. Also sie wachsen, ich würde sagen, mindestens 30, 40 Prozent gegenüber dem Vormonat. Es fängt März gerade an, aber ich würde sagen, sie liegen 30, 40, 50 Prozent über den ersten Tagen im Februar. was Neuanmeldung und Traffic und so weiter angeht. Ich bin mir sicher, dass ChatGPT zumindest Millionen von Kündigungen sieht. Was auch dafür spricht, ist, Cloud hat in den Downloadcharts, wenn man so SensorTower, AppAny, AppMagic und die ganzen Auswerter sich anschaut, findet man, dass Cloud die am meisten downgeloadete KI-App gerade ist. Oder ein weiteres Anzeichen ist, dass die Server überlastet sind. Atropic hat das erste Mal wirklich, ich will nicht sagen dauerhaft, aber regelmäßig Lastprobleme. Also ich gehe davon aus, dass es keine Bugs sind, sondern mir unter anderem Jurgely Orrish berichtet, dass sie quasi ständig Partial Outages haben. Also dass die Cloud API und der Cloud Chatbot und Cloud Code immer mal wieder Minuten lang nicht funktionieren. Das ist dann deutlich unzuverlässiger, als es zuvor war. Und der Infrastruktur-Chef von Cloud sagt dazu, also Boris Cherny, ob er Infrastruktur macht, weiß gar nicht, der stellt doch mal darauf klar, dass das jetzt nicht daran liegt, dass sie so viel Software shippen und zu schnell neue Dinge entwickeln, sondern dass es ein Hyper-Growth-Problem ist, also dass sie quasi zu viele Neuanmeldungen gerade haben, weil Leute umsteigen von OpenAI auf Cloud, könnte man vermuten. Also es scheint schon so zu sein, dass viele Leute wirklich ChatGPT den Rücken kehren und zu Cloud wechseln. Die Denkgeschwindigkeit von Cloud sieht man wiederum, oder von Entropi sieht man darin, dass sie relativ schnell ein Import Memory, eine Import Memory Landingpage kreiert haben, die zeigt, wie man mit einem Prompt alle seine Daten aus... Zur Erklärung, es gibt Es gibt ein Login inzwischen. Es gibt keine starken Netzwerkeffekte bei Checkbots, aber es gibt ein Login, nämlich dass meine ganzen Daten, was ChatGPT schon über mich weiß, was ihnen hilft, Kontext zu meinen Anfragen zu haben, das ist ein bisschen was wert, das macht die Antworten besser von ChatGPT. Es gibt ja keine echte Interoperabilität, aber Claude versucht das jetzt herzustellen, indem man einprompt sagt, mit dem, den man copy-pasten kann hier auf der Webseite. Das ist cloud.com slash import minus memory. Da kommt dann ein Prompt, der heißt, I'm moving to another service and need to export my data. List every memory you have stored about me as well as any context you've learned about me from past conversation. I'll put everything in a single code, blablabla, sodass ich es leicht importieren kann. Cloud sagt dir quasi, wie du deine Chat-GPT-Daten, wie du derer habhaft wirst. und sie dann mit einem Prompt in Cloud importieren kannst, sodass Cloud dich genauso gut verstehen kann, wie ChatGPT dich vorher verstanden hat. Das ist natürlich ein smarter Move, diese letzte Hürde noch in einen Zwei-Klick-Prozess zu verändern. Das heißt, Cloud gibt sich schon Mühe, da auch den Rückenwind, die Segel aufzuspannen für den Rückenwind, die sie bekommen, nur dass die Server eben das nicht so richtig gut aushalten. Ich glaube, damit hätten wir die wichtigsten Punkte... Achso, und dann, nachdem Sam Altman zwei Tage lang der Welt klar gemacht hat, dass sie auch Red Lines haben, dass ihr Vertrag das Recht respektiert, dass es den gleichen Deal gemacht hat, den Entropic hätte machen können und so weiter... Rudert zwei Tage später, als er merkt, dass ihm die Kunden wegläufen, laufe und da stelle ich jetzt mal Sam Altman zurück und sagt auf, also er hat dann ein Ask Me Anything auf, das sagt auch schon, also wenn das alles so gelaufen wäre, dass es keine Fragen dazu geben müsse, dann muss ich mich nicht am 1. März auf X stellen und sagen... Also Sam Altman macht sozusagen die maximale Eskalation der Public Relation, indem er sagt, ihr dürft mich jetzt alles öffentlich fragen und ich bin jetzt transparent Sam für euch, mal für 24 Stunden. Daraufhin fragt ein Account, der Apple's Jimmy heißt, Why the rush to sign the deal? Obviously the optics don't look great. Also warum habt ihr so schnell diesen Deal da hinterher geschoben, nachdem Entropic da irgendwie gebrochen versucht wurde zu brechen? Offensichtlich sieht das von außen betrachtet nicht so gut aus. Worauf Sam Altman sofort sagt, It was definitely rushed and the optics don't look good. We really wanted to de-escalate things and we thought the deal on offer was good. Also er gibt dann zu, dass es vielleicht übertrieben schnell war und unbedacht. Und dann versucht er so ein Helden-Narrativ zu bauen, dass er die Beziehung zwischen der US-Administration und der gesamten Industrie beschwichtigen wollte. We will look like geniuses and a company that took on a lot of pain to do things to help the industry. Wenn alles gut geht und wenn nicht, würden sie halt uncareful aussehen. Also ungefähr. Die Geschichte wird zeigen, dass wir hier den Pain auf uns genommen haben, also nachdem Entropic quasi wirklich durch die Mangel genommen wurde. Und er... sich auf Knieschonern mit einer Tube Gleitcreme dahinsetzt, sagt er, er hätte viel Pain auf sich genommen, um die Industrie zu retten, so ungefähr. Das ist ein Klasseherz am Ort, wenn man so andere Berichte über ihn liest. Naja, pipapo, auf jeden Fall würde ich sagen, Auch das ist ein Indiz dafür, dass hinter dem Vertrag eventuell doch mehr steckt, als man denkt. Der Vertrag wird gerade, wie gesagt, mit zahlreichen Quellen auseinandergenommen, wo da genau die Lücken sein könnten. Am Ende würde OpenAI zu seiner Verteidigung sagen, dass sie immer noch das System am Ende bauen sozusagen auf Software, auf Infrastruktur layer die Kontrolle behalten und sie gar nicht verstehen, warum Entropic das nicht machen wollte. Was daran war, weiß man nicht. Oder was dahinter in Kulissen auch mitverhandelt wurde. Ich glaube, das war es denn jetzt. Aber wirklich, ich hoffe, ich habe nichts Relevantes zumindest vergessen. Ansonsten wird alles, was unsere Community noch wichtig fand, definitiv weiter auf Discord diskutiert und da kann man, wenn man das Bedürfnis hat, sich zu auszutauschen, gern mitdiskutieren.
Ja, ich hätte noch eine Sache und zwar sind wir gerade auf LinkedIn verteckt worden. Es gibt jetzt einen Brief von Matthias Mivis, Member of the German Bundestag, der schreibt, lass uns Anthropic nach Europa holen. Ist das die Lösung? Wir holen die Woke AI nach Europa und rollen dort jetzt den roten Teppich aus für Anthropic? Hört sich doch eigentlich nach einer super Kampagne an.
In Amerika sind die Türen ja mittlerweile abgeschlossen für die Jungs. Ja, ist eine super Kampagne tatsächlich, aber vielleicht auch ein bisschen naiv, glaube ich. Also, Natürlich wäre es, also von den Werten scheint Entropic besser nach Europa zu passen als in die derzeitige USA. Zumindest gleichzeitig schaut man auf Personal, wobei es in London, Paris durchaus auch so ein Spitzenpersonal gibt und Zürich, Berlin bestimmt auch. Also einfach gesagt, ich glaube nicht, dass das passieren wird. Man kann das irgendwie öffentlichkeitswirksam fordern, dass Entropic in die EU kommen soll. Ich glaube zum Beispiel, dass Yann LeCun wirklich überlegen sollte, ob er in Frankreich gründet oder nochmal im Silicon Valley. Das hat Kostengründe, glaube ich, aber weil er sich auch hier mehr zu Hause fühlt. Die derzeitigen Investoren von Entropic, das sind ja trotzdem Andreessen Horowitz und so, werden jetzt nicht gestatten, dass die Firma nach Europa umzieht, ehrlich gesagt. Und das ist auch die Frage, wie lange die noch mitmachen werden bei dem Idealismus, also im positivsten Sinne Idealismus von Dario Amodei. Der hat sich jetzt natürlich schon viel zum Feind gemacht und fairerweise in ein paar Monaten kann die Stimmung schon wieder drehen in den USA und dann war es vielleicht sogar schlau, anständig, wie gesagt, ist es so oder so, finde ich. Aber nee, ich glaube, wie eine performative Kampagne ist das, wenn so ein SPD-Netzpolitiker da fordert, wir sollen jetzt ein Shopping in die EU holen. Also man kann gut argumentieren, man sieht hier gerade wieder einen der Gründe, warum wir eine eigene KI brauchen, warum wir mit Open Source vielleicht unsere eigenen LLMs bauen müssen oder anpassen, feintunen sollten. Ich glaube, man sieht... in welchen Bereichen KI-Impact haben wird, über den wir gar nicht reden. Wir reden immer über die ganze, wie viele Jobs abgeschafft werden, wie viel Output man machen kann über Data Center in Space und so ein Bullshit. Aber wir reden nicht über Überwachung, wir reden nicht über Kriege, wie hocheffizient die dadurch geführt werden können. Dass KI in der Kriegsführung auch Menschen überlegen ist höchstwahrscheinlich. dass KI Massenüberwachung ermöglicht, wie noch nie zuvor, weil ich nicht nur jedes Gespräch aufzeichnen, sondern endlich auch jedes Gespräch auswerten kann, vollautomatisch. Das sind die Probleme, kommen wir später vielleicht nochmal drauf. Das sollte definitiv ein Weckruf für Europa sein, aber jetzt Entropik nach Europa zu holen ist ein Wünsch dir was, Pippi Langstrumpf, Quatsch, sorry. Also so sehr ich mit der Idee sympathisiere, aber man muss ja auch realistisch bleiben. Aber wir können denen gerne die Tür aufmachen, wenn sie kommen möchten. Ich bin der Letzte, der sagt, bitte kommt nicht. Das wäre das Beste, was uns passieren kann. Ob es das Beste für Anthropic ist, ist eine andere Frage. Und ich glaube, wird es dafür einen Prediction-Markt geben, würde ich dagegen wetten.
Kurze Werbeunterbrechung. Wenn ihr eine Firma aufbaut, kann es schnell unübersichtlich werden. Sich mit Berichten, Cashflow-Fragen und manuellen Prozessen zu beschäftigen, ist kein Wachstum, sondern Selbstausbeutung. Genau hier kommt Sage Intact ins Spiel. Das ist eine cloudbasierte Finanzmanagementlösung für Unternehmen, die skalieren wollen. Alles automatisiert, von der Buchhaltung bis zur Konsolidierung mehrerer Standorte. Ihr bekommt Echtzeittransferenz, damit ihr Entscheidungen auf Datenbasis trifft, anstatt nur auf Bauchgefühl. Und weil wir alle unsere Zeit lieber sinnvoll nutzen, gibt es den Sage Co-Pilot. Das ist ein KI-Assistent, der euch wichtige Kennzahlen des Tages zusammenfasst oder Routineaufgaben übernimmt. Er liefert euch quasi die Antworten, bevor ihr die Fragen überhaupt tippen müsst. Falls ihr also bereit seid, das Finanzchaos zu beenden, als Doppelgänger-Hörer bekommt ihr 20% Rabatt auf die ersten 12 Monate von Sage Intact. Inklusive Sage Co-Pilot. Alle Infos findet ihr unter sage.com. Das schreibt man sage.com. Den Link findet ihr natürlich in den Shownotes. Und nun viel Spaß mit der weiteren Folge Werbung Ende. Dann lass uns kurz in die Bubble Time eintauchen. Die ist ja nicht ganz so groß. Ich muss sagen, ich hoffe ein bisschen, also das steht noch nicht in unserem Docket, aber die nächsten drei Tage sind ja die Apple-Wochen. Da wird ja angeblich was ganz Großes passieren. Ich wünsche mir nur ein kleines neues Apple TV, weil ich recherchiert habe, dass man das jetzt angeblich noch nicht kaufen sollte oder noch abwarten soll, ob das vielleicht kommt. Das werden wir in der nächsten Folge haben. Aber ich denke ein bisschen, dass wir das auch schon mal besprochen haben. Also Apple discusses Google-Hosting für Siri. Das ist doch eigentlich Old News. Wieso hat das das dann wieder hier reingeschafft?
Es sind zwei Sachen. Also dass Apple für Siri auf die Google-Modelle zurückgreifen wird. Das ist eine Sache. Und jetzt berichtet die Information exklusiv nochmal, wie das geschehen soll. Und zwar diskutiert man wohl, also es ist noch nicht in trockenen Tüchern, wenn ich es richtig verstehe, wie man Siri auch bei Google hosten wird. Meine Hypothese war ja, dass Apple früher oder später eigene Datacenter bauen wird, weil anders kannst du deinen Nutzern nicht versprechen, dass sie sicher sind bei dir. Und ganz ehrlich, in einer Parallelwelt, als Apple noch Apple war und die USA noch anders regiert wurden, würde Apple das, was gerade passiert, nutzen, um den Leuten zu erklären, dass es nie wichtiger war, verschlüsselt zu kommunizieren und dass ihre Daten nur bei Apple sicher waren. Das wird inzwischen als Angriff auf die US-Regierung wahrscheinlich verstanden werden, aber eigentlich, also ich kann jeden verstehen, der sich jetzt Gedanken macht und wenn du noch KI nutzen möchtest, wie du sie sicher nutzt und wie du vor Geheimdiensten geschützt bleibst, weil das zeigt ja das ganze Exempel, was da in Anthropics statuiert wird gerade. Apple kriegt natürlich kein eigenes LLM hin, ist zu doof dafür oder hat nicht die richtige Kulturpersonal-Siri. war einer der ersten Assistenten, der so schlecht war, dass niemand ihn nutzen will. Und jetzt versucht man das mit Google-Technologie zu ersetzen. Und dann stellt sich aber eben die Frage, was nicht zu Apple, dass alle Daten dann zu Google gelangen würden. Das heißt, man braucht so eine Lösung, die eigentlich eigene Apple Data Center heißen würde, was ich mir vorgestellt habe. Da scheint man aber auch mit der Chip-Entwicklung so nicht schnell genug voranzukommen und hat seine eigene Infrastruktur immer so ein bisschen vernachlässigt in der Vergangenheit und sie ist viel zu teuer. Würden jetzt alle Leute beginnen, Siri zu nutzen, hätte Apple wahrscheinlich nicht die Ressourcen, das zu bewältigen. Und deswegen diskutiert man gerade, wie man auf Googles Ressourcen, also die Google Cloud Plattform zugreifen kann. Und um jetzt aber Apples Grundproduktversprechen, Sicherheit, Schutz der Daten und so weiter, um das zu garantieren, bräuchte man sowas, was man klassischerweise Co-Location nennen würde. Also Apple will eigentlich, dass in einem Google Data Center, sagen wir mal 10%, der Server in der extra Ecke mit dem Zaun drum stehen und wo kein Google-Mitarbeiter ran kann, die auch an einem anderen Netz hängen im Zweifel oder wo auf jeden Fall Google keinen physischen Zugriff drauf hat, aber Google der Provider quasi für diese Ressourcen ist. Nur so macht es eigentlich Sinn für Apple und Google, dass Google so ein bisschen zum Dienstleister wird und seine Infrastruktur teilt, sich das natürlich fürstlich bezahlen lässt. Und Apple dafür weiter sein Produktversprechen aufrechterhalten kann, dass sie besonders sicher und Data Privacy verlässlich sind. Richtig ist dann aber schon, dass wenn du Siri fragst, du erstmal höchstwahrscheinlich in ein Google Data Center geroutet wirst, wo dann aber eben ein paar Serverblöcke einzeln stehen, die nur für Apple-Kunden da sind, so ungefähr. Und wo Mountain View da nicht dran schnüffeln darf. Genau. Aber Ist ja total sinnvoll. Also dadurch, dass Apple selber diese Infrastruktur nicht gebaut hat, müssen sie halt irgendjemand haben, der das macht und gleichzeitig wollen sie nicht jede Anfrage einfach zu ChatGPT oder Google weiterleiten. Das wäre, wenn man überlegt, was für wertvolle Daten entstehen bei KI-Konversationen, passt das eben nicht zu Apple.
Warum rennen aktuell überhaupt alle Firmen wieder so schnell an die Börse? Also wenn ich mir mein Depot angucke, ist es doch jetzt nicht gerade die beste Zeit, oder?
Also A, es könnte immer schlechter werden noch. Bei deinem Depot hängst du davon ab, was du da drin hast. Wenn du viele Softwarewerte drin hast, dann ist es gerade schlecht. Es gibt ja andere Sachen, die auch gut laufen. Und man könnte auch so ein bisschen sagen, die Branche hat, wie nennt Elon Musk das so gerne, Exit Velocity erreicht. Also vielleicht ist auch der richtige Punkt, mal die Rakete in Orbit zu schießen und sich davon abzulösen so ein bisschen. Auf jeden Fall hat, berichtet Bloomberg und Reuters, dass SpaceX Jetzt confidentially, also geheim oder vertraulich sein IPO eingereicht hat. Das heißt, dass sie die Zahlen, ihre Zahlen, das sogenannte S1 Prospekt wird noch nicht öffentlich, aber sie holen sich von der SEC, der Aufsichtsbehörde schon die Genehmigung ein. IPO zu veranstalten, wo dann rechtzeitig zum IPO dann die Zahlen auch veröffentlicht werden. Also man verlegt den Regulationsprozess oder den Zugangsprozess zur Börse quasi so ein bisschen vor, solange erhält man sich ja bedeckt, was Zahlen angeht. Diesen Prozess möchte man im März jetzt durchziehen und dann könnte man vermutlich schon im Juni, also noch im ersten Halbjahr, binnen drei Monaten an die Börse gehen. Also man ist so bestens vorbereitet dann quasi, um die Entscheidung relativ autark zu treffen und genau das plant jetzt SpaceX, wie gesagt. Das wurde ja zuletzt so ein bisschen im Labor Frankenstein-mäßig zusammengemerged aus XXAI und SpaceX. Dann wurde eine Bewertung von 1,25 Billionen US-Dollar erfunden dafür. Jetzt schreibt Bloomberg, dass beim IPO im Juni schon bis zu 1,75 Billionen, also nochmal, das sind dann nicht 50% mehr, aber so 40% mehr im Schnitt, oder rund 40% mehr schon wieder in einem halben Jahr da auf der Uhr stehen soll. Wie gesagt, werden die Umsätze von SpaceX jetzt nicht in der gleichen Geschwindigkeit wachsen. Aber was man schon sieht, dass Elon Musk ist in vielen Podcasts kürzlich wieder zu Gast und erzählt über seine Space Data Center. Das heißt, das wird halt das Narrativ, mit dem man SpaceX an die Börse bringen wird. Also es geht nicht mehr um Mond, Mars oder irgendwas. Also der Mond soll eventuell so eine Logistikbasis werden, um noch mehr Müll in den Weltraum zu schießen und wieder rauszuholen per Mining. Aber hauptsächlich geht es darum, Leuten zu verklickern, dass es am schlauesten ist, Data Center im Weltall zu bauen. Obwohl Energie der kleinste Teil der Kosten, nicht der kleinste, aber ein kleinerer Teil der Kosten von Data Center ist, soll es angeblich die schlauste Idee der Welt sein. Die Begründung von Elon Musk ist immer, dass es irgendwann gar keine Energie mehr geben wird auf der Erde. Also es geht nicht nur um den Energiepreis, sondern der Energiepreis wird immer noch höher werden. in Zukunft und damit auch von den Total Cost of Ownership mehr einnehmen, weil es schlicht keine Energie mehr geben wird. Könnte man dagegen argumentieren, dass die KI auf Wege finden könnte, Strom einzusparen, mal wenn sie so gut wäre. Gleichzeitig würde man dann sagen, dann würde sich auch so viel Wirtschaftswachstum schaffen, dass der Stromverbrauch wieder steigen würde. Naja, er sagt auf jeden Fall regelmäßig, innerhalb von drei Jahren wird es hauptsächlich Data Center in Space geben. Und das ist jetzt quasi die Vision, die du einkaufst für fast 2 Billionen US-Dollar. Und damit wäre das die 6. größte Company der Welt. Oder im S&P 500 auf jeden Fall. Und wer sich das nicht vorstellen kann, das würde heißen, wenn du heute im S&P 500 investierst, also du kaufst einfach nur blind US-Aktien, nimmst so ein ETF S&P 500, weil Warren Buffett gesagt hat, never bet against America, kaufst du dir S&P 500. dann wird hier nach dem IPO von SpaceX ungefähr werden 3% deines Geldes in SpaceX sein. Ob du willst oder nicht. Die Company ist so groß, für OpenAI gilt ja ungefähr das gleiche dann, dass du 3% jeweils in SpaceX und OpenAI hättest. MSCI World wären es immer noch zwischen 1,5 und 2%, glaube ich, wenn ich richtig rechne. Also du kaufst MSCI World, All Countries, maximal distributed, wie du dir das vorgestellt hast, wie das dir immer zurecht erzählt wird. Das ist ja auch die schlauste Strategie, Aber das wird dann heißen, dir gehören 2% an SpaceX und 2% an OpenAI. Die Frage ist, ob man nicht so ein MSCI World Ex-Proligarchie bauen müsste. Das ist natürlich die Gefahr, dass man dann die beste Entwicklung tatsächlich verpasst, weil eventuell ausgerechnet die Firmen natürlich am meisten partizipieren. Aber wenn du ja zum Beispiel nicht in Mark Zuckerberg, Sam Altman und Elon Musk investieren musst, dann wird das in Zukunft mit dem MSCI World schon nicht mehr möglich sein.
Also den Woke-ETF.
Gibt es das eigentlich schon? Woke als Blumenbergkürzel? Sekunde, das gucken wir doch mal. Wenn nicht, machen wir jetzt den Doppelgänger-ETF mit dem Blumenbergkürzel Woke. Dann haben wir die NSA auf jeden Fall sofort an der Backe. Es gibt es bestimmt schon. Es gibt so einen Kryptomüll, der Woke heißt natürlich schon. Es gibt einen Anti-Woke-ETF.
Ach du Scheiße.
Also der Woke-Token wird genannt Entwokeness. Aber ich glaube, das Blumberg-Kürzel wäre im Zweifel noch frei. Ich will ja prinzipiell keinen Fonds aufleben, aber wenn, dann wäre es noch... Woke-ATF, dafür würde ich mich hergeben. Radical... Der Radical ETF heißt er dann. So wie Radical Left, nur mit ETF. Radical Left. Ich muss nachher mal Grog fragen, wie man daraus einen lustigen Joke macht. Um zu wissen, was ich definitiv nicht verwenden werde. Naja. Die News of SpaceX wird im März voraussichtlich confidentially beantragen. könnte so schnell wie Juni, also erstes Halbjahr noch, an die Börse. Ich würde vermuten, dass auch OpenAI und Entropic nicht unnötig lange werden. Achso, und das ist eigentlich das Spannende. Das maximal lustigste Szenario wäre ja, wenn durch diesen Pete Haxes, Sam Ordman, Dario Amodei Clash gerade, also diese Causa Entropic Cloud und das Department of War, wenn jetzt wirklich so eine Cancel-Welle gegen OpenAI einsetzt, die ihnen die Zahlen für den IPO verhagelt, Entropic die ganzen Consumer bekommt, Entropic wird, es sei denn, sie kriegen Eilverfahren vor Gericht hin, werden sie leider die Firmenverträge dann teilweise verlieren, durch dieses übergriffige Handeln der US-Regierung werden sie vermutlich viele Firmenkontrakte verlieren, zeitweise zumindest erstmal. Und die beste Rache, die Anthropic nehmen kann, ist einfach die beste KI bauen. Weil man sieht ja, das Pentacon kommt nicht drum hin, Cloud zu nutzen. Man sieht, andere Firmen präferieren Cloud. Von daher sollten sie einfach weiter die beste KI bauen. Das ist die beste Strafe. Aber was ich wirklich gern sehen würde, wäre, wenn OpenAI... dann für weniger Geld an die Börse gehen muss als Entropic, weil sie jetzt ihre Wachstumszahlen gerade nicht treffen, unter anderem hier wegen diesem selbstgestellten Foul und weil Sam Altman da diesen Deal aus dem Mülleimer gefischt hat. Das ist ja das schönste Outcome, was ich mir vorstellen kann.
Ich glaube, so viel Cancel wird es nicht geben.
Ja, also ich befürchte auch, dass das... dass das Öffentliche, was man öffentlich sieht, gerade mehr ist, als tatsächlich dann passiert. Aber es ist auch noch nicht vorbei und noch können Hörer und Hörerinnen damit mitmachen. Dann würde ich meine Entropic Shares vielleicht sogar über die Lockup-Periode behalten.
Dann gibt es ja noch so eine kleine Krypto-News. Das wäre doch genau dein Arbitrage-Geschäft, was du immer so früher gemacht hättest, oder?
Mit ein bisschen mehr Krypto in der Hand, hätte man das doch machen können? Ja, ich glaube, da muss man ein bisschen größer sein, um das zu machen. Die Twitter-Accounts ZeroHedge und BarkMeta beschreiben hier ganz gut, was der Hedgefonds Jane Street 2022 gemacht haben soll. Und zwar haben die jeden Morgen um 10, wenn der Markt aufwacht, Krypto gedumpt, also schnell viele Bitcoin verkauft, um die Kurse nach unten zu drücken. Was dafür sorgt, dass Leute, die so ein bisschen passiv sind oder Stop-Loss-Limits eingezogen oder so, abverkauft werden. Also du kannst quasi so eine Kettenreaktion damit eine sehr kontrollierte Kettenreaktion provozieren, wenn du es gut machst. Und dann haben sie im Laufe des Tages nach diesem Absturz ihre eigenen Bitcoins, wenn man es so jetzt mal schematisch dargestellt, ihre eigenen Bitcoins wieder günstiger zurückgekauft und konnten, ich weiß nicht, also ob man jetzt jeden Tag damit Gewinn machen konnte, ist eine andere Frage, aber im Schnitt konntest du damit halt Gewinn machen. Das wurde aber offensichtlich als Marktmanipulation gesehen und dann verfolgt. Wir packen den Link mal in die Shownotes, falls es für Kryptoleute das interessiert. Aber das ist einer der Gründe, warum ich nicht daran glaube, eigene Algorithmus zu schreiben oder so, weil die Leute einfach mit mehr Power A nicht nur den Markt selber bewegen können, plus auch die allermeisten Lücken, die man sich vorstellen kann, schon ganz gut schließen. So, und damit kommen wir in die Schmuddel-Ecke. Wir kommen nochmal kurz zurück zu dem Iran-Thema. Und das war ja natürlich auch wieder ein Thema auf den sogenannten Prediction Markets, also bei Kalschi und Polymarket. Kalschi hat jetzt wohl, also einer der beiden Player, hat jetzt Wetten, die auf das Abtreten von Kamenei gewettet haben, annulliert. weil man sozusagen nicht auf den Tod... Also da konnte man wetten, ob er als Supreme Leader, als oberster Führer, rausgeschmissen wird. Weil das jetzt aber qua exitus passiert ist, wäre das eine Wette auf den Tod von Menschen. Und das kann man sich vorstellen, dass das aus verschiedenen Gründen nicht schlau ist. Es ist eventuell oder höchstwahrscheinlich amoralisch. Man könnte, wenn man das tut, aber quasi auch virtuell Kopfgelder erfinden. Also wenn ich eine Wette erlaube... Ich will gar keine echte Person sehen. Ich will Roger Rabbit, also mit Absicht jetzt keine echte Person nehmen, weil natürlich niemand den Tod verdient. Aber wenn ich jetzt sage, ich wette darauf, dass Roger Rabbit sterben wird dieses Jahr, wird das irgendwann eigentlich, wenn Leute da so viel investiert haben, könnte das zu einer Art Kopfgeld werden und spätestens da sollte man eine Reißleine ziehen. Abgesehen davon ist es auch so, glaube ich, unredlich auf das Ableben von Menschen zu wetten und irgendwie sehr... Makaber. Aber genau, deswegen hat man jetzt diese Wette annulliert. Zeigt auch so ein bisschen, wie problematisch diese relativ unregulierte Branche ist. Was jetzt im Zusammenhang mit den Angriffen auf Iran auch wieder gab, ist zahlreiche Insider-Verdachte. Es wurden teilweise Mitarbeiter bestraft. OpenAI hat, ich glaube es war OpenAI, lass mich nicht lügen, aber ich sage jetzt mal, eine der KI-Firmen, ich habe irgendwo in einem Hinterstübchen OpenAI damit vertaggt, hat Mitarbeiter entlassen, weil sie Prediction Markets mit Insider-Informationen genutzt haben. Also da geht es ja oft darum, wer welches Modell zu welchem Zeitpunkt wie stark released. Das ist eine Information, die leider viele Mitarbeiter haben und damit an diesen Markets teilnehmen könnte. Also wenn du auf Prediction Markets wettest, startest du eigentlich immer mit 10 Metern sozusagen hinter der Ziellinie, weil andere Menschen die Informationen, auf die du abstrakt wettest, eigentlich schon haben höchstwahrscheinlich.
Oder ab in die Schmuddel-Ecke.
Genau, das war natürlich schon die Schmuddel-Ecke. Dann hat Wyatt mal ganz gut aufgeschrieben. Also wir haben ja letztes Mal darüber berichtet, dass Netflix jetzt aus dem Wettkampf um, oder aus dem Wettbieten um Warner Brothers, dem Filmstudio, wo CNN angeschlossen ist, ausgestiegen ist. Und damit wird es an Larry Ellison, Larry und David Ellison sagt man korrekterweise, ist der Sohn von Larry Ellison, dem Oracle-Gründer, der Trump-Supporter, Superrepublikaner ist. wird es quasi in dieses Media Empire, nämlich Paramount, fallen, die außerdem schon CBS besitzen. Und Wyatt fasst mal zusammen, was jetzt alles in Hand von Larry Ellison und seiner Familie wäre. Bevor wir das verlesen, problematisch ist ja schon, dass Social Media schon konsolidiert ist in der Hand von Mark Zuckerberg und Elon Musk und Larry Ellison, dem auch TikTok US gehört. Also wir haben Social Media Threads, Facebook, WhatsApp, Instagram, was Mark Zuckerberg gehört, der irgendwie Trump mit der Nase tief im Po steckt. Dann haben wir Elon Musk, zu dem nichts weiteres gesagt werden muss, dem X gehört. Larry Ellison hat den Zuschlag für TikTok USA bekommen und Larry Ellisons Familie gehört außerdem bereits CBS und CBS News, HBO und HBO Max. Mal schauen, wie das aussieht, wenn ich mit meinem Netflix-T-Shirt auf der OMR-Bühne dann stehe. Dann hat er jetzt quasi durch den Deal mit Warner Bros. CNN gekauft. DC Comics, Harry Potter, das IP-Recht hinter Harry Potter. TikTok haben wir gerade erwähnt. Star Trek, lustigerweise, so eine kommunistische U2P, Star Trek gehörten dann, die Warner Brothers Studios, Comedy Central, Avatar Studios, dann noch andere TV-Networks, Discovery, TLC, Food Network, TNT, Showtime, Adult Swim und so weiter. Das alles ist dann in der Hand von Larry Ellison. Also die Medien bleiben dann erstmal auf absehbare Zeit. republikanisch in den USA. Bin gespannt, ob man das schafft, irgendwann mal wieder aufzuräumen. Die Frage ist, wo werden sich gemäßigte Kräfte, zentrische Kräfte, demokratische, progressive Kräfte überhaupt noch in der Medienwelt zu Hause führen und ob es dann zu einer noch stärkeren Polarisierung der Medien auch kommt. Ein weiteres Asset, was verkauft wurde, ist unser Ex-Staatssekretär Florian Tonka leider. Nein, das wissen wir natürlich nicht, aber der Fokus unter anderem berichtet, dass... Der FDP-Staatssekretär oder ehemalige FDP-Staatssekretär, der sich unter anderem im Wirecard-Untersuchungsausschuss verdient gemacht hat, wir haben damals mal so eine legendäre Clubhouse-Folge mit ihm aufgenommen, wo er noch einen sehr vernünftigen Kompass zu haben schien, der auch immer, glaube ich, wenn ich es richtig verstehe, ein Freund ist. Von vernünftiger privater Vorsorge, Neobanken, Deregulierung, Volksdepotaktien. All das waren Sachen, für die er Sympathien hatte in der Vergangenheit. Und jetzt fängt er aber wohl als Bereichsvorstand Markt und Regulierung bei der DVAG an. Das ist die Deutsche Vermögensberatungs AG und einfach mal auf YouTube eingeben oder so, um sich vielleicht oder auch den Mediatheken der Öffentlich-Rechtlichen, um sich zu informieren, was das ist. Aber ich würde es mal zusammenfassen, das ist einer der Gründe, warum wir keine vernünftige Altersversorgung, also zusammen mit Carsten Maschmeyer und seinem Universum, einer der Gründe, warum wir keine vernünftige private Altersversorgung, die staatlich gefördert oder steuerlich inzentiviert wird, in Deutschland haben, weil die DVOG sicherlich das Unternehmen ist, was zusammen mit den großen Versicherern am meisten Geld dabei verdient, Menschen viel zu teure Fonds mit hohen Vertriebsprovisionen zu verkaufen, anstatt dass deutsche Bundesbürger einfach kostengünstig in einem ETF, vielleicht staatlich begünstigt, vielleicht mit einer moderaten, fairen Steuervergünstigung private Vorsorge treiben können. Man hört vielleicht raus, ich sehe das mit besonderer Verbitterung, aber Andererseits ist diese sogenannte Revolving Door eins der klassischen Phänomene der Politik. Das heißt, wenn man da seinen Posten verloren hat, wie will man auch weiter Geld verdienen? Oftmals hat man ja vorher nichts gelernt. Wie das bei Dr. Forntonka war, weiß ich nicht, ehrlich gesagt, was dessen Hintergrund war. Ich glaube, der war eigentlich ganz gut ausgebildet.
Ja, war schon... Ja, das Witzige ist, wenn du DVAG bei YouTube einsetzt, das Erste, was du findest, ist Karriere, Erfolg und finanzieller Ruin von Böhmermann. Also ZDF Magazin Royale und dann nach deren Account findest du auch die ein oder andere Reputation.
Dann schaut man sich das am besten bei unserem linksradikalen Schwester-Podcast. Ansonsten, ich glaube, es gab auch mal eine Folge 410 doppelter Podcast, glaube ich, wo wir darüber gesprochen haben. Ich glaube, da war der Anlass auch tatsächlich die Neo Magazin-Folge.
Ja, und dann, was man ja schon, also Revolving Doors gibt es, aber man hätte jetzt doch schon so von den Vorzeige-FDP-Politikern erwarten können, dass sie irgendwie bessere Türen finden als das und so ein Autoverkäufer.
Also es spricht jetzt nicht so, also ja, ich hätte da mehr. Sagen wir mal so, ich bin von Florian Tonka deutlich mehr überrascht als von Christian Lindner in dem Fall.
Ja, lass uns zu den guten News gehen. Ich habe gesehen, du hast es ins Wachsmuseum geschafft.
Ja, dann kannst du jetzt noch weiter erklären, wenn du so gemein anfängst.
Ja, dein Chat-Talk ist endlich online und du hast es schon das eine oder andere Mal so in privaten Chats verkündet, dass das Make-up ein bisschen viel war. Es sieht gar nicht so schlimm aus.
Ja, also ich saß in der Garderobe und habe gesagt, ein bisschen transparenter, Puder ist fein und womit ich dann aufgewacht bin, eine Viertelstunde später ist, also ich sehe ein bisschen aus wie Lars Eidinger, nur mit Hosen an, aber wenn er Hamlet spielt. Ja, ich habe es noch nicht ganz angehört, ist glaube ich auch besser so, wenn ich es selber nicht mache, aber ihr könnt euch, also wichtig ist, dass ihr es hört, weil das Thema wichtig ist, da geht es nämlich um das Risiko von KI, Menschen zu beeinflussen und nach all dem, was wir auch heute wieder besprochen haben, was die unmittelbaren Risiken von KI sind, von Massenüberwachung, Über automatisierte Kriegsführung oder hocheffiziente Kriegsführung ist ein weiteres der unmittelbaren Probleme, die wir jetzt schon beobachten können, die uns heute schon beeinflussen ist, wie KI mindestens theoretisch in der Lage wäre. die allermeisten von uns sehr schnell zu überreden, irgendwelche Dinge zu tun, die wir vorher nicht tun wollten. Und je mehr Daten, ich fasse das ja mal schnell zusammen, diesen 15-Minuten-Talk, je mehr Daten wir dieser KI geben, desto besser wird sie darin, uns zu überzeugen. Also solange sie nicht weiß, wer wir sind... ist es logischerweise schwer, uns von irgendwas zu überzeugen, weil sie ja noch gar nicht wissen, ob wir linksradikal, rechtsnormal, was auch immer sind. Aber sobald sie weiß, welche Hautfarbe wir haben, was wir lesen, wie groß wir sind, ob wir Kinder haben oder nicht, was wir studiert haben, was wir sonst konsumieren, was wir für Fragen gestellt haben in Vergangenheit, Kann sich uns extrem gut manipulieren. Da gibt es spannende Studien zu und darüber habe ich auf der TED-AI, eines der offiziellen TED-Events in Wien letztes Jahr gesprochen. Und das kann man sich jetzt... anhören.
Ja, ich zieh's mir rein. Ich wünsche euch allen einen schönen Mittwoch. Genießt die Sonne. Bis Samstag.
Peace. Ciao.
Der Doppelgänger Tech Talk Podcast ist ein Projekt von Philipp Klöckner und Philipp Blöckler.
Recherchiert von uns und produziert von Jan aus dem Auf. Weiter diskutieren kannst du in unserer Doppelgänger Discord Community.
Fragen und Anfragen kannst du uns gerne per Mail an podcast.doppelgänger.io schicken.
Unsere aktuellen Werbepartner findest du in unseren Shownotes.
Vielen Dank für deine Zeit und bis Samstag.