Doppelgänger Folge #539 vom 24. Februar 2026

OpenAIs Rohmargen-Problem | Trump vs. Netflix | Citrini SaaS-Crash “The 2028 Global Intelligence Crisis” #539

OpenAI korrigiert seine Umsatzerwartungen erneut nach oben: $284 Mrd. bis 2030, davon $150 Mrd. aus dem Consumer-Geschäft . Anthropic meldet massive Destillationsangriffe chinesischer Modellbetreiber mit bis zu 24.000 Fake-Accounts, während DeepSeek laut Reuters auf Nvidias Blackwell-Chips trainiert – angeblich in Data Centern in der Mongolei. Bernie Sanders fordert nach Gesprächen mit KI-CEOs ein Moratorium. Der virale Citrini-Research-Artikel "The 2028 Global Intelligence Crisis" beschreibt ein Doom-Szenario für SaaS und löst einen realen Kursrutsch bei ServiceNow, DoorDash und Cloudflare aus. Das DHS baut eine behördenübergreifende biometrische Datenbank. OpenAI-Mitarbeiter erkannten Warnsignale in der Chat-Historie einer kanadischen Amokläuferin, meldeten sie aber nicht an Behörden. Open-Source-Projekte kämpfen mit AI-Slop-Commits, Cerebras wagt einen zweiten IPO-Anlauf. Trump bedroht Netflix wegen Board-Mitglied Susan Rice, Musks Super PAC verstößt gegen das Wahlrecht in Georgia. Das Pentagon arbeitet mit Google, OpenAI und XAI ohne Guardrails.


Unterstütze unseren Podcast und entdecke die Angebote unserer Werbepartner auf ⁠⁠⁠⁠⁠⁠doppelgaenger.io/werbung⁠⁠⁠⁠⁠⁠. Vielen Dank! 


Philipp Glöckler und Philipp Klöckner sprechen heute über:

(00:00:00) Intro

(00:09:15) OpenAI Umsatzziel Anpassung

(00:23:15) China destilliert Claude mit 24.000 Fake-Accounts

(00:35:13) Citrini Research: The 2028 Global Intelligence Crisis

(00:57:40) LinkedIn-Verifizierung: Was Persona mit deinen Daten macht

(01:04:20) DHS baut biometrische Mega-Datenbank

(01:08:50) OpenAI: Warnsignale vor Amoklauf nicht gemeldet

(01:13:30) AI-Slop in Open Source und Cerebras IPO

(01:19:07) Trump droht Netflix und Musks Wahlrechtsverstoß in Georgia

(01:25:00) Waymo vs. Tesla und Pentagon ohne Guardrails

(01:30:30) Trump-Regierung gegen europäische NGOs und DMA

(01:32:57) Binance: $1,7 Mrd. Iran-Transaktionen, Whistleblower gefeuert

(01:37:37) Steven Bartlett und Christian Angermayer

(01:44:04) DJI-Saugroboter-Hack


Shownotes

OpenAI resets spending expectations, tells investors compute target is around $600 billion by 2030 - cnbc.com

Anthropic beschuldigt chinesische Firmen, Daten von Claude zu stehlen. - wsj.com

China nutzte Nvidia-Chip für KI-Modell trotz US-Verbot. - reuters.com

Sanders warnt vor unkontrollierter Geschwindigkeit der KI-Revolution. - theguardian.com

Post von pitdesi - x.com

LinkedIn-Identität verifiziert - thelocalstack.eu

DHS Search Engine - wired

OpenAI-Mitarbeiter warnten Monate zuvor vor Kanadaschützen. - wsj.com

Für Open-Source-Programme sind KI-Codierungswerkzeuge ein zweischneidiges Schwert. - techcrunch.com

Cerebras Files Confidentially For a U.S. IPO - theinformation.com

Trump droht Netflix wegen Rice im Vorstand Konsequenzen an. - bloomberg.com

Trump sagt, Netflix wird 'Konsequenzen tragen', wenn Susan Rice bleibt. - theverge.com

Georgia sagt, Elon Musks America PAC verletzte Wahlgesetz. - theverge.com

Tesla Waymo - wired

Musks xAI und Pentagon vereinbaren Nutzung von Grok in Geheimdiensten - axios.com

Trump-Verbündete zielen auf europäische NGOs wegen Big-Tech-Regeln. - ftm.eu

Binance Employees Find $1.7 Billion in Crypto Was Sent to Iranian Entities - nytimes.com

Von Dragons’ Den zu Disney: Steven Bartlett sammelt achtstellige Summe. - eu-startups.com

Meta-Direktorin für KI-Sicherheit gab OpenClaw-Bot vollen Zugriff. - x.com

DJI Romo mit Xbox-Controller. - x.com


📧 Abonniere jetzt den Doppelgänger Newsletter auf⁠⁠⁠⁠⁠⁠ doppelgaenger.io/news⁠⁠⁠⁠⁠⁠ und erhalte jeden Montag die relevanten News der Woche 📧

👋 Aktuelle⁠⁠⁠⁠⁠⁠ Werbepartner des Doppelgänger Tech Talk Podcasts⁠⁠⁠⁠⁠⁠, unser Sheet und der Disclaimer 👋

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger-Podcast, Folge 539 am 25. Februar 2026. Ich bin Philipp Glöckner und telefoniere zweimal die Woche mit dem Tech-Analysten Philipp Glöckner. Und stellt euch gut an, es wird eine AI-Folge. Vorher einen kurzen Aufruf in eigener Sache. Ich wurde gestern angerufen von einem Hörer-bekannten Kumpel, der meinte, man würde uns im Auto nicht so gut hören. Also, falls ihr uns im Auto hört, sagt mal, müssen wir höher sprechen? Was soll Jan adjusten, damit man es im Auto besser konsumieren kann? Müssen wir jetzt so ein kleines Kanye West Experiment machen? Der hat früher doch seine erste Platte optimiert, dass man die im Auto gut hören kann.
Ich glaube, Autos bräuchten einen Podcast-Modus, ehrlich gesagt. Also, wenn man so in Leihwagen oder so einsteigt, dann sind die Besser immer irgendwie auf Dreiviertel gestellt und die Höhen weggemacht oder so. Und das ist, glaube ich, zum Hören von Spracheinterviews und so nicht so optimal. Also Sprache wird dadurch eher undeutlich. Eigentlich bräuchte man so ein bisschen mehr Mitten, vielleicht sogar ein bisschen Höhen und weniger Bass, um einen guten Podcast zu hören. Aber bestimmt ist unsere Qualität schuld und nicht die Einstellung des Autos. Früher gab es Anlagen, wo man Equalizer hat und da gab es für News oder für Radio so eine Einstellung, die einfach mehr Clarity hatte und weniger Tiefen.
Ich kann mich nur noch an so ein altes Radio erinnern, da konnte man irgendwie Pop, Rock oder Hip-Hop einstellen.
Ja, genau. Aber da gab es auch so Voice oder wie hieß denn das? Ich glaube, es hieß News oder Radio oder so. Es gab eine Einstellung, was quasi für gesprochen Sprache und nicht für Musik war. Hast du auch ein halbes Jahr alles mit Hall gehört, weil du einfach deine Equalizer-Funktion am Walkman nutzen wolltest? Boah, ich hab Concert-Modus. Ich fühl mich wie in einer großen Arena und dann hörst du auf einmal jeden Jack Nussbaum mit Hall. Das war entscheidend.
Ich nehme alles zurück. Falls ihr uns im Auto hört, stellt euer Radio vernünftig ein. So, wir machen hier...
Ja, und bringt einen guten alten Sternrekorder oder Kofferradio mit ins Auto. Und hört es darauf. Oder nehmt euren Walkman mit. Also das Einfachste ist, ihr lasst euren Cloudbot... den Podcast auf eine Kassette überspielen und hört sie dann auf dem Walkman. Das ist mein Tipp. Kennst du diese Sony-Kopfhörer, wo so eine dünne Alu-Spange ist und dann hast du diese zwei ungefähr so großen Mini-Muffen, die du auf dem Kopf hattest? Sie kommen wieder. Lange bevor das Over-Ear-Kopfhörer... Ich hoffe nicht. Wahrscheinlich ist das das neue AI-Produkt.
Wahrscheinlich ist das das neue AI-Produkt.
Das neue AI-Produkt ist ein Walkman. Hervorragend. Nee, aber so große Over-Ear-Kopfhörer wären halt tatsächlich... Also das würde ich tatsächlich sagen. Also es ist krass, dass da noch niemand draufgekommen ist. Also es ist ja so in Großstädten zumindest nicht mehr so frowned, wie sagt man, verpönt. wenn du größere Kopfhörer trägst, so im Straßenbild. Das ist nicht mehr die größte Belästigung des Straßenbilds, wenn man Friedrich Merz fragt. Aber in so Kopfhörern, wie wir jetzt gerade bei der Podcast-Aufnahme tragen, kannst du halt super nach vorne und hinten gerichtete Kameras zum Beispiel unterbringen. Also das würde man auch in den Airpods schaffen. Miniaturisierung ist ja jetzt keine so große Challenge mehr heutzutage. Einfach richtig große Kopfhörer mit Kameras, dann muss ich mir halt nicht meine Brille aufsetzen. Also ich habe zwar kein Display dann in der Brille, aber könnte man auch mal drüber nachdenken, ob einfach richtig geile Over-Ear. Und das andere, was ich heute überlegt habe, ist, ich habe jemanden mit seinen Airpods kämpfen sehen und ich benutze schon länger keine Airpods mehr, weil ich sie, ich halte es zwar für ein gutes, Glück leid, gerade versuche ich seine GoPro seitlich am Kopfhörer zu montieren. Du musst jetzt so mit Gaffer-Tapes da ran kleben. Du hast mich unterbrochen. So, Herz auf, rumzuspielen. Ich erzähle dir eine wichtige Geschichte. Ich habe tatsächlich heute Morgen beim Kaffee holen drüber nachgedacht, ob so Firmen wie Sennheiser und Bose, die so meiner Meinung nach die besseren, also AirPods sind ein großartiges Device für KI und so, bei der Story bleibe ich schon, aber die besseren Kopfhörer sind meiner Meinung nach, im Moment nutze ich Bose. Und da habe ich tatsächlich überlegt, die müssten ja eigentlich auch langsamer mit der KI-Vision arbeiten. Wie bekomme ich noch eine Kamera in meinen Kopfhörer rein, um in Zukunft ein spannendes Device zu sein und nicht eventuell abgelöst zu werden.
Damit wir endlich unsere Kopfhörer von 2006 upgraden.
In-Ears verliert man ja zum Glück häufig. Das ist ja sowieso das beste Produkt, weil man so oft verliert, dass man es mal wieder neu kaufen muss. Over Ears halten tatsächlich so 10 Jahre. So wäre es, dass man sogar seine Muffen hier erneuern muss, wenn man die von seinem Co-Host geschenkt bekommt. Für ein schöneres optisches Erlebnis. Genug Smalltalk. Oder hast du noch etwas, was du uns erzählen möchtest? Nein. Wie kamen wir überhaupt darauf?
Lass das Auto stehen. Ab zu OpenAI. Ist KI überhaupt mehr Umweltverschmutzung als Autos? Ja, auf jeden Fall, oder?
Noch nicht. Es könnte dahin kommen... Also im Moment ist es so, dass der Transportsektor noch einen höheren CO2, der gesamte Transportsektor, wenn man jetzt LKWs und Flugzeuge, Schiffe mit hinzu zählt, dann wäre der Transportsektor größer. Es müsste aber, ich könnte mir vorstellen, dass der Punkt, wo KI Autos überholt, schon bald kommt. Also vorausgesetzt, dass man die weiter mit Erdgasturbinen befeuert, müssten wir bald da sein. Aber habe ich jetzt nicht nachgecheckt. Das wird peinlich genau in unserer Community nachgecheckt. Natürlich, da kann man sich im Feedback-Channel immer, also in meinem Fall, morgens eine kalte Dusche abholen. Alle anderen können sich dafür zusätzliches Wissen abholen und oft kleinere und größere Korrekturen, die da angebracht sind. Wenn wir richtig Quatsch behaupten, dann erwähnen wir das ja auch immer nochmal. Genau, am Ende der Sendung gibt es zum Beispiel nochmal zwei kleine Nachklaps, wobei das keine Korrekturen, sondern eher Erweiterungen sind. Ansonsten reden wir heute nur über bubblige Themen und Schmuddelecke, wie das eigentlich fast immer so ist. Andere News gibt es nicht mehr. Wir beginnen mit, das war auch Thema des Newsletters, diese Woche, wer den noch nicht hat, Doppelgänger Newsletter mal bei Google eingeben. Mein Ziel ist immer noch 30.000 Abonnenten oder Abonnentinnen zu finden dieses Jahr. Bis jetzt läuft es ganz gut, aber ein paar brauchen wir noch. Wo bist du? Also bei 24.000 ungefähr jetzt. Ich brauche noch so 150 pro Woche, oder? 40 Wochen, 150, 6000, stimmt das? Bestimmt. Und vielen Dank an alle, die den schon weiterleiten. Das ist ja für mich immer das größte Miracle, wie man ohne irgendwas zu bewerben, einfach nur durch das Schreiben automatisch neue Leser und Leserinnen bekommt. Aber es geht für den Podcast ja eigentlich genauso vorbei. Da habe ich das Gefühl, man muss schon immer rumreisen und andere Podcasts belästigen und so weiter. So, apropos andere Podcasts belästigen. Ich war am Wochenende, also in der Modax-Folge von Haken dran zu Gast. Da haben wir nochmal schön über die Themen Klarnamenpflege, Social-Media-Verbot für Minderjährige, den Prozess von Jan Böhmermann gegen Ex, den wir hier nicht besprochen haben. Den werden wir auch nicht besprechen. Dafür muss man in Haken dran Podcast sein. Darüber haben wir gesprochen. Genau, Hörempfehlung. Und Gavin war im Presseclub, soll ich sagen, da wird er wieder rot, wenn er das hört, aber hat sich sehr gut geschlagen. Man hat auch besonders schlechte Restjournalisten ausgewählt für die Runde, aber naja. Bist du für Social Media-Verbot eigentlich? Wir hatten das ja schon durchgesprochen. Ich finde es schon krass, wie viele Leute hier bei Apophika total einstimmig gesagt haben, lass ausmachen das Internet für Kinder. Naja, okay, wie gesagt, das wird da viel kompetenter besprochen als hier. Bei uns geht es um OpenAI, Thema des Newsletters. Ich habe es genannt. Erst dachte ich Play It Again Sam und dann sage ich Play Us Again Sam. Fand ich noch lustiger. Das ist so eine alte Analogie auf den Film Casablanca. Aber ja, erst fand ich es total lustig und dann dachte ich, ich glaube 80% der Leute werden den Gag überhaupt nicht kapieren. Immerhin auch interessant, wie die KIs darauf reagiert haben, dass ich dieses Bild mit Sam Altman als den Klavierspieler in Casablanca generieren wollte. Gemini hat sofort kalt zusammengeschauert und gesagt, Filmrechte, lass mich in Ruhe, ich generiere hier gar nichts, das könnte Filmrechte sein. verletzen. OpenAI wollte es nicht machen, weil da eine Person drin war. Oder andersrum, ich weiß nicht. Einer hat sich an den Filmrechten gestoßen, der andere an der Person. Und dann hat Grog mir natürlich... Scheißegal, ob ich Sam Ortman verunglimpfe oder Filmrechte. Keine Ahnung, wem Casablanca gehört. Ich habe auch versucht, ihn zu überreden. Der, der mit Filmrechten angemeldet hat, der Film ist so alt, da gibt es bestimmt gar keine IP mehr drauf. Die sind alle tot. Das wäre lustig. Ein KI-Modell überreden, dass alle Schöpfer der IP seit 70 Jahren tot sind. Ob es dann die Logik gewinnt und der sagt, na gut, dann darf ich das natürlich. Naja, egal. Wir versuchen den vierten Anlauf nochmal in das Thema reinzugehen. Und zwar hat, was hat Sam Ortman wieder getan? Er hat die Umsatzerwartung von OpenAI ein weiteres Mal nach oben korrigiert. Und zwar möchte OpenAI jetzt im Jahr 2030 sogar 284 Milliarden Umsatz machen. Zum Vergleich, das ist mehr als Meta heute macht und ein bisschen weniger, also Google ist bei 400, Microsoft glaube ich auch so um die 300, 400 Milliarden. Also in der Liga möchte OpenAI nur in den nächsten 5 Jahren spielen. Davon soll die Hälfte ungefähr aus dem Consumer-Geschäft kommen. 150 Milliarden plant man mit Consumern zu machen. Also jeder Weltbürger wird 20, ungefähr 20 Dollar ausgeben, inklusive Babys, Kreise und so weiter. Im Schnitt bei OpenAI, das muss man erstmal schaffen. Das Consumer-Geschäft, da steht jetzt Also das Original Reporting hier ist von CNBC und The Information. Und da wird im Consumer-Geschäft das Werbegeschäft nur noch einfach sozusagen mit ausgewiesen. Da steht dann ChatGPT Consumer in Klammern Including Ads. Das heißt, man sagt nicht mehr, wie viel Geld man mit Subscription und Werbung machen will. Ich würde mal behaupten, da hält man sich schon die Option offen, Werbung auch wieder abzuschaffen, so ähnlich wie Perplexity. Also es wäre natürlich doof zu sagen, wir machen 100 Milliarden mit Subscription und 50 Milliarden mit Werbung. Weil wenn man dann nächstes Jahr eventuell die Werbung doch wieder einstellt, dann sagen alle, oh, jetzt fehlen ja 50 Milliarden. Deswegen sage ich lieber mit Consumern insgesamt inklusive Werbung mache ich 150 Milliarden und wie sich das zusammensetzt, mal sehen. Das finden wir auf dem Weg noch raus. Und das ist meine Unterstellung zumindest, dass man deswegen Werbung nicht mehr einzeln ausweist. Was man einzeln ausweist, ist die Kategorie New Products in Klammern Including Hardware. Damit will man ungefähr so 15 Milliarden machen 2030. Das ist natürlich ein ganz ordentlicher Hardware-Umsatz. Bin ich gespannt, wie die neuen Geräte da einschlagen müssen, damit man 15 Milliarden Umsatz damit im Jahr machen könnte. Ansonsten der Rest kommt aus der B2B-Sparte. Da wissen wir, steht OpenAI unter Druck von insbesondere Entropix Club, aber auch Google Gemini und vor allen Dingen den Open Source-Konkurrenten aus China in Zukunft auch. Werden wir mal sehen, ob das alles so klappt. Fairerweise, das sage ich immer dazu, bisher haben sowohl Entropic als auch OpenAI ihre Umsatzprognosen immer eingehalten und sogar übertroffen. Das heißt, dass sie die regelmäßig nach oben korrigieren, kann man ihnen eigentlich nicht übel nehmen. Weil so schwer es auch ist, solche Voraussagen zu machen... ist es natürlich fair zu sagen, wenn ich meine Zahlen übertroffen habe, dass ich dann auch meine Pläne nach oben karagiere, allein schon, weil ich auf einer anderen Basis und mit einer anderen Wachstumsrate rechnen kann. Und trotzdem kann das natürlich schief gehen. Es kann wieder übertroffen werden in Zukunft. Es kann natürlich auch nicht so optimistisch aussehen. Klar ist natürlich auch, dass wenn die Bewertungen so stark steigen, wie wir gerade sehen, wir wissen OpenAI ist gerade dabei eine Riesenrunde zu raisen, es ist natürlich auch das der Hintergrund dieser Anpassung von Zahlen. Also weil man, was war OpenAI vor zwei Jahren noch 150 Milliarden wert, jetzt will man auch 750 Milliarden auf dem Fünffachen raisen. Das heißt, da braucht man natürlich auch größere Ambitionen für. Wenn man sich innerhalb von zwei Jahren verfünffacht hat in der Bewertung, dann muss man auch irgendwie erzählen, unsere Ambitionen sind größer geworden. Das hier wird nochmal eine viel größere Firma, als ihr alle dachtet. Und auch deswegen erhöht man natürlich die Zahlen. Und natürlich wird auch die Burnrate erhöht. Wenn man davon ausgeht, dass man schneller beim Umsatz wächst und in größere Umsatzdimensionen kommt, dann wird einem auch verziehen, wenn man mehr Geld investiert. Und genau das Das ist der andere Grund, glaube ich, warum OpenAI, also einerseits um für den Börsengang höhere Bewertungen zu rechtfertigen oder im Vorlauf des Börsenganges, deswegen schraubt man Umsatzerwartungen hoch. Und das andere ist, glaube ich, um den Freigang zu bekommen, noch mehr Geld zu investieren, weil man insgesamt 111 Milliarden zusätzlicher Cash Burn jetzt kalkuliert. Also im Vergleich zur letzten Schätzung oder zur letzten Prognose vom Q3 letzten Jahres, geht man jetzt zum Beispiel 2028 statt von minus 47 von minus 85 Milliarden negativen Cashflow, also Cashverlusten. Außen dazu kommen noch die Aktien, die man rausgibt, also der Buchverlust nach Gap wäre nochmal deutlich größer. Genau, also OpenAI wird auch noch unprofitabler werden. 2029 wollten sie fast break-even sein. Da machen sie jetzt noch 50 Milliarden Verlust aus Cashflow-Sicht immer. Und 2030 möchten sie dann aber break-even sein und dann sofort 40 Milliarden Gewinn machen. Wie wahrscheinlich das ist, da habe ich mich im Newsletter sehr skeptisch gegeben. Ich glaube, dass man die Wachstumsraten schaffen könnte, wenn viel gut geht. Schwer zu sagen. warum man sich nicht noch mindestens verdoppeln sollte ein paar Mal, wenn man sich gerade die Trajektorie von KI anschaut und wie viel Nutzung es dann doch gibt und wie viel professionelle Industrien es dann doch zunehmend betrifft. Von daher mache ich mir weniger Sorgen um die Umsatzzahlen. Dass der Gewinn und der Break-Even 2029 kommt, da würde ich ein großes Fragezeichen dran machen und Unter anderem wegen einer Information, die sich hier im Information-Artikel eher versteckt, die ich aber eigentlich die spannendste finde. Und zwar wird da geschrieben, dass die Rohmarge, die eigentlich 2025 bei 46% liegen sollte und im Vorjahr bei 40% war, also sie sollte von 2024 40% auf 46% steigen und über die Jahre sollte die Rohmarge immer besser werden. Also Rohmarge ist quasi das, was sich mit dem Weiterverkauf von Tokens verändert. Man könnte ja sagen, ein KI-Unternehmen ist eigentlich ein Veredelungsprozess für Rechenleistung. Also ich kaufe Datacenter-Leistungen ein und verkaufe sie dem Kunden als KI-Tokens weiter. Und die Veredelung wird von meinem LLM getan. Weil ich ein gutes LLM habe, was State-of-the-Art ist oder irgendwas besonders gut kann, kann ich Rechenleistungen veredeln und zwei-, dreimal teurer weiterverkaufen an die Kunden. Das ist natürlich der Plan der KI-Firmen. Und ich muss eben das LLM, deswegen muss ich viel Forschung und Entwicklungsaufwendung in das LLM stecken, damit ich das führende Modell bleibe und das Volumen auf diesem prinzipiell profitablen Weiterverkauf von Rechenleistungen inklusive des Verählungsprozesses. Damit das Volumen groß bleibt, brauche ich immer das beste Modell. Das Problem ist, um das beste Modell zu bauen, muss ich unheimlich viel investieren gerade. Das kostet vier, fünfmal so viel Rechenleistung im State-of-the-Art-Rennen drin zu bleiben. Grundproblem ist, ich muss unheimlich viel Forschung und Entwicklung, R&D ausgeben, um das State-of-the-Art-Modell zu haben. Dann habe ich aber eine Chance, profitabel Tokens weiterzuverkaufen oder Rechenleistungen als Tokens weiterzuverkaufen mit einer immer weiter steigenden Rohmarge, Cross-Margin, so das Versprechen. Und dieser Weiterverkauf von Tokens ist heute profitabel. Also die Rohmarge... soll wie gesagt von 40 auf 46 Prozent steigen. Das heißt, es gibt eine Rohmarge, es ist schon profitabel, nur man muss so viel in Forschung investieren, dass dadurch die Gesamtfirma eben trotzdem Milliarden verbrennt. Und diese Rohmarge, die von 40 auf 46 Prozent steigen sollte, ist jetzt auf 33% gefallen. Das heißt, es gibt einen Preiskampf, der immer kompetitiver wird und die Marge wird keinesfalls höher, sondern tatsächlich niedriger. Das heißt, 33% ist natürlich schon dann eine relativ dünne Rohmarge, gerade wenn man das mit Softwarefirmen bei 70% oder so vergleicht. Die Rohmarge war schon immer so eine große Sorge. Wir haben schon ein paar Mal darüber gesprochen, dass wir eigentlich nicht glauben, dass sie so hoch wird wie bei klassischen Softwarefirmen. weil die Angst ist natürlich, dass LLMs so ein bisschen commoditized werden, also Einfach gesagt, eine hohe Rohmarge funktioniert nur, wenn du irgendeinen Mode hast oder irgendeinen kompetitiven Vorteil oder ausreichend differenziert bist. Deswegen hat Nvidia zum Beispiel für Hardware eine unheimlich große Rohmarge von 75% oder Luxusautohersteller kommen auf sehr hohe Rohmargen, während eben Tesla oder BYD relativ kleine Rohmargen haben oder andere Hersteller zum Beispiel. Und jetzt versucht diese ganze Branche natürlich zu erklären, dass sie glauben, die Rohmargen werden irgendwann groß und dass die Forschungsausgaben sinken in Zukunft, relativ zum Umsatz. Und das ist halt nicht so einfach. Du kannst sagen, die Inanspruchnahme von KI-Dienstleistungen wird ja so angenommen, dass die Umsätze sich noch dieses Jahr noch einmal verdreifachen oder fast verdreifachen und sich dann so ein bisschen verdoppeln, 50% wachsen. Das kann schon passieren. Aber die Forschungs- und Entwicklungsausgaben werden sich auch mindestens verdoppeln, wahrscheinlich höher. Wir wissen, man braucht vier bis fünfmal so viel Hardware, um im Rennen zu bleiben. Und warum sollte dieses Hardware-Rennen aufhören? Man ist in einem Breakneck-Competition, also einem super harten Wettkampf, wo man sich nichts gibt. Das heißt, die Forschungs- und Entwicklungsausgaben werden wahrscheinlich hoch bleiben. Gleichzeitig gibt es aber einen massiven Preisdruck auf die Rohmargen, weil man sich in einem Wettkampf befindet mit Anthropic, mit Google und mit der China-Discount-Konkurrenz. Da kommen wir gleich noch drauf.
Und der Open-Source-Konkurrenz.
China ist ja ganz viel Open-Source, aber das meinte ich damit. Du hast recht, es geht um Open-Source und ein Großteil von Open-Source wiederum kommt im Moment aus China. Das lässt mich zumindest an der Theorie zweifeln, dass man da irgendwann mittelfristig, also vielleicht bis 2028, 2029 auf Rohmargen über 50 Prozent kommt. Ich sehe das ehrlich gesagt nicht. Ich würde behaupten, die sind sich alle dessen sehr bewusst eigentlich. Es gab ja dieses Interview mit Dario Amode, ich glaube im Darkash-Podcast war das, wo er auf einmal erzählt vom Kono-Gleichgewicht. Also es ist so aus der Mikroökonomie, also es ist der oligopolistische Markt. Also ein Markt wie zum Beispiel Mobilfunkanbieter, wo es drei, vier große Player gibt. Da findet sich so ein Equilibrium, also ein Gleichgewicht an einem gewissen Punkt quasi, wo alles gutes Geld verdient, ohne dass sie einen Kartell bilden. Aber weil man ausreichend differenziert ist und zur Not macht man das über die Marke oder so, verdienen alle Leute Geld und man hat nicht so eine ruinöse Competition. Aber ob das, du kannst natürlich sagen, KI wird ein Oligopol werden, also es gibt drei bis fünf große Player oder zwei bis fünf große Player, das ist relativ wahrscheinlich. Ob die sich aber ausreichend differenzieren können, dass sie einfach das Dreifache zum Beispiel von den Kosten des Datacenters verlangen können, im Vergleich zu ich kann mir das Open Source selber im Datacenter installieren und zahle nur die Tokens. Da muss man schon sehr, sehr gute Produkte bauen, um das hinzubekommen. Es ist nicht unmöglich. Du könntest sagen, Entropic schafft das mit Code Cloud vielleicht schon, dass die Präferenz der Nutzer so groß ist, dass sie bereit sind, tendenziell auch mehr dafür zu bezahlen. Du kannst das günstiger machen mit anderen Modellen. Cloud gilt als relativ teuer. Tentropic beweist es ein bisschen, könnte dahin kommen, aber OpenAI zum Beispiel, da siehst du halt das Gegenteil, also dass sie viel Geld verlieren. Jetzt muss man sagen, diese Rohmarge von 33% ist natürlich ein Mix aus ganz viel. Also es könnte zum Beispiel sein, dass OpenAI mit Codex-Tokens relativ viel Geld verdient, mit Enterprise-Anwendungen, API-Calls relativ viel Geld verdient, aber dass so Späße wie Sora einfach unheimlich viel Geld kosten, weil es Millionen und Milliarden und Trillionen von Tokens kostet, dass irgendwelche Leute Videos und Bilder generieren. Und dafür tendenziell noch relativ wenig Geld zahlen. Also es ist natürlich eine Mischkalkulation, diese Rohmarge. Aber das ist auf jeden Fall die krasse Abfrage. Also während ich sage, dass prinzipiell man die Erwartungen übertrifft, die Erwartungen an die Rohmarge sind brutal schlecht. Und man sagt halt, also warum glaubt man, die Rohmarge wird sinken? Weil man sagt, Inferenz, also das Abfragen der Modelle wird immer günstiger. Also die Tokens einzukaufen oder Rechenleistung einzukaufen wird tendenziell günstiger. Aber gleichzeitig werden die Anwendungen natürlich immer komplexer. Also wenn du jetzt heute so Simulationen oder Analysen machst, da rattert das Ding halt mal 15 Minuten. Also wenn du die wirklich guten Modelle, die Pros und Expert-Versionen nutzt, das rattert bei Analysen teilweise jetzt wirklich 15 Minuten am Stück und verbraucht unheimlich viele Tokens. Also da, soweit, dass du oft sagst, hätte ich mal lieber den Fast-Modus genommen, weil ich will eigentlich gar nicht... so komplexe Bearbeitung der Sachverhalte haben. Und deswegen glaube ich nicht so richtig, dass es wirklich günstiger wird. Also die Produktion von 1000 Tokens wird immer günstiger werden. Vielleicht sogar jedes Jahr um den Faktor 3, 4 oder sogar 10. In der Vergangenheit ist es wirklich deutlich günstiger geworden. Aber gleichzeitig werden für sehr ähnliche Abfragen die Modelle immer mehr Tokens generieren, um immer noch besser zu werden, um Halluzinationen weiter auszuschließen. Insofern mache ich mir bei den Margen wirklich Sorgen. Und weil wir es gerade angesprochen haben, wer für den meisten Margendruck sorgen würde, es ist einerseits die Konkurrenz unter den großen KI-Firmen untereinander, also Google gegen Cloud, Anthropic gegen OpenAI, die sich nichts nehmen. Aber da könnte man sagen, das wäre ein Dreier-Oligopol, da kann jeder sich so ein bisschen seine Nische suchen. Google baut einfach sehr gut seine Produkte ein. ChatGPT ist eine eigene Marke, die Consumer und ein paar Enterprise-Kunden monetarisieren kann. Und Claude wird quasi der Professional Agent für Coder, für Legal Leute und so weiter. Das würde funktionieren. Aber dann gibt es eben noch diesen, was du gerade erwähnt hast, den Open-Source-Druck. Und das wiederum sehr stark von China vorangetrieben. Da gab es jetzt auch eine spannende News diese Woche. Und zwar, das ist nicht das erste Mal, dass das passiert, aber es ist jetzt ganz frisch. von gestern Abend, also wir nehmen am Dienstag Mittag auf und am Montagabend berichtet unter anderem das Wall Street Journal, aber Atropic hat das selber als Tweet rausgegeben, dass sie davon ausgehen, dass es massive Angriffe, nennen sie das glaube ich, von chinesischen Modellbetreibern gibt. Also die Rede ist von Deep Seek, Moonshort und Minimax. Das ist ein Dahinter stecken dann die Modelle, die wir kennen, RUN, Kimi und Minimax. Und die sollen halt bis zu 24.000 fraudulent Accounts eröffnet haben und damit Millionen und Abermillionen von Anfragen gestellt haben. Also um, natürlich schützen sich die Modelle schon dagegen, automatisiert abgefragt zu werden. Also worum es geht, ist dieser Distillationsprozess. Das haben wir mal erklärt, wie komme ich von einem Large-Language-Modell zu einem sehr effizienten Small-Language-Modell oder dem, was DeepSeq R1 damals war. Ich klaue mehr oder weniger das Wissen aus den Modellen, indem ich nicht mehr auf den Ursprungsdaten, sondern ich lerne aufgrund dem Output von dem Modell. Die Analogie, die ich immer mache, ist so, du kannst irgendwie die ganze Bibliothek der Humboldt-Uni lesen oder du gehst einfach zu einem sehr guten Professor oder Professorin und lernst bei der alles, was sie aus diesen Büchern rausgeholt hat. So ein bisschen funktioniert Destillation. Also ich habe ein kleines Modell, was vom großen Modell lernt, statt aus den Trainingsdaten. Und damit kommt man auf eine sehr gute oder sehr ähnliche Leistung bei deutlich niedrigen Entwicklungskosten. Und auch das Modell ist dann am Ende oft kleiner und effizienter. Was Claude jetzt merkt, ist, dass sie Millionen von Abfragen machen. um genau das zu tun. Und dazu öffnen sie halt zigtausende verschiedene Accounts, damit es nicht auffällt, wenn ich 10.000 Abfragen am Tag mache. Da gibt es natürlich so Rate Limits, wo man sagt, hey, das ist ja kein menschliches Verhalten mehr, aber deswegen macht man 24.000 Abfragen, nutzt VPNs, macht vielleicht unauffällige Abfragen zwischendurch, imitiert menschliches Verhalten und so weiter und so fort. Und Entropic raised diesen Issue natürlich, weil sie damit schon auch Politik wahren wollen wahrscheinlich. Und sicherlich auch Stimmung machen gegen die chinesischen Modelle. Fairerweise, das erinnert natürlich so ein bisschen an das, was China auch in anderen Industrien gemacht hat. Also ich klaue erstmal die Forschungsergebnisse von anderen Firmen. Teilweise haben in der Vergangenheit Firmen auch mit China kooperiert und sich das fast aktiv klauen lassen, um günstige Arbeitskräfte zu haben. So ist das jetzt hier tendenziell eher nicht. Sondern man klaut einfach wirklich die Arbeitsergebnisse Und das kann natürlich auch jederzeit ein Moment kommen, wo China einen Durchbruch macht und bessere Ergebnisse erzielt. Eigentlich kannst du nicht sehr viel besser sein als das Originalmodell. Du kannst nur günstiger sein, also effizienter. Das hat man bei Deep Seek ja ganz gut gesehen. Aber irgendwann droht natürlich auch die Gefahr, dass China außerdem noch vielleicht sogar basierend darauf bessere Modelle bauen könnte. Irgendwann, wenn sie so den Effekt, den wir jetzt bei Autos gerade sehen oder Manufacturing sehen, wenn der kommt. Das kann natürlich auch noch Jahre dauern.
Oder dass sie einfach bessere Chips oder mehr Energie haben. Wenn du es jetzt so ein bisschen an die Automobilindustrie vergleichst, könnte man sagen, so früher hat man sich das Auto gekauft, es auseinandergenommen und geguckt, was drin ist und es dann versucht nachzubauen. Jetzt kannst du halt einfach live das neueste Modell mit 20.000 Leuten irgendwie befragen und dir alles abschreiben. Und du hast halt, also der Mode ist noch da, aber der ist halt jetzt nicht mehr ein Jahr oder zwei, sondern der ist halt jetzt 24 Stunden.
Genau, das geht sehr schnell. Das Training ist natürlich auch viel schneller als auf echten Daten. Und was du sagst, ist natürlich auch richtig. China hat einen Riesenvorteil, was Energie angeht. Sie haben deutlich günstigere Energien, ein viel stärkeres Grid, was immer Überkapazität hat, also was auf Redundanz aufgebaut ist. Also nicht so wie in den USA, dass sich die Leitungen biegen, jetzt mal plastisch gesprochen, beziehungsweise die Leitungen tendenziell immer at capacity sind, sondern sie haben Redundanz, sie bauen immer 10-20% mehr Energie aus, als sie eigentlich brauchen und das könnte ein riesen Vorteil sein und Chips wird wahrscheinlich noch ein bisschen dauern, aber sie werden höchstwahrscheinlich auch bei den Chips irgendwie aufholen mit der Zeit und sind genauso bemüht, eine eigene Chip-Industrie zu bauen, was auch nachvollziehbar ist. Letztlich hat China das gleiche Problem wie wir als Westen mit der Abhängigkeit von Taiwan. Also die Wahrheit ist ja auch, ich glaube, China importiert mehr Microchips, als sie Öl importieren. Sie importieren schon relativ viel Öl, weil sie selber keins haben oder kaum welches haben. Das heißt, China braucht auch eine unabhängige Chip-Industrie, weil ansonsten hätten auch sie ein Problem, wenn Taiwan das komplett dicht macht. Aber mit diesen abgekupferten Modellen, können sie dann natürlich wieder extrem Kostendruck auf die Originalanbieter machen und deswegen schreit N-Shopic hier auch ganz laut faul, weil letztlich die Forschungsergebnisse, die mit zig Milliarden an Rechenleistungen quasi erzwungen werden von den großen KI-Forschern, dann größtenteils entwendet werden und mit einem Bruchteil der Kosten repliziert werden können, wenn das Originalmodell erstmal Und ich glaube, wir werden mehr und mehr sehen, dass die großen KI-Firmen Teile ihrer Modelle der Öffentlichkeit nicht mehr zur Verfügung stellen. Also insbesondere, wenn es um Coding geht und so, wird man wahrscheinlich und Research, wird man die besten Research- und Coding-Assistenten vielleicht irgendwann nur noch intern, das ist glaube ich in diesem AI-2027-Szenario auch so ein bisschen angedacht, irgendwann nur noch intern verwenden. Da sieht man ja schon so erste Tendenzen, dass Cloud sich so ein bisschen verschließt. Und außerdem muss man überlegen, es ist halt unheimlich schwer zu verhindern. Du kannst China nicht ausschließen über VPNs, über freedom.gov kann man dann auch so vielleicht die Abfrage machen in Zukunft. Schwer das zu unterbinden, du kannst nur immer besser sein, es ist ein ewiger Wettrennen, aber du hast quasi immer den Discounter, der dir hinterherläuft und mit deinem Modell von gestern zu 20% der Kosten dir die Kunden abwerben kann. Auf jeden Fall gibt es eben erheblichen Kostendruck und das lässt so ein bisschen daran zweifeln, dass man am Ende zu den Rohmargen kommt, die man sich da verspricht für die Zukunft. Ja, was sollen die USA machen, außer weniger Chips liefern? Aber auch das hilft natürlich nicht ultimativ. Da gibt es auch nochmal ganz interessante Insights gerade. Und zwar berichtet Reuters exklusiv, dass man davon ausgeht, beziehungsweise hat das Weiße Haus behauptet, dass DeepSeek gerade sein nächstes Modell auf NVIDIAS neuster Chip-Generation, also Blackwell, trainiert.
Wahrscheinlich aus dem Middle East.
Finanziert durch Trump. Könnte sein. Mutmaßlich. Man glaubt, dass die Datacenter irgendwo in der Mongolei stehen. Ich wusste auch noch nicht, dass da Datacenter sind. Also das ist die Vermutung, dass irgendwo in der Mongolei Datacenter stehen, auf die man Zugriff hat oder mit denen man zusammenarbeitet. Und die... Muss man sich auch fragen, warum bekommt ein Datacenter in der Mongolei zuerst Black-Bull-Chips? Aber, naja, also auch die Restriktion der Chips hilft nicht wirklich und man könnte diese destillierten Modelle auch auf den älteren Chips wahrscheinlich schon noch relativ gut trainieren. Mit ein bisschen mehr Aufwand und günstigem Strom ist das alles nicht vollkommen unmöglich, wobei die besten Chips natürlich schon immer helfen, gerade was Geschwindigkeit angeht. Das wird natürlich spannend bleiben. Für China ist es natürlich einerseits wichtig, um selber im Rennen zu bleiben. Und wenn es eben mit Abkupfern ist, zumindest nicht den Anschluss zu verlieren, ist es vielleicht aus deren Sicht erstmal nachvollziehbar. Und gleichzeitig pinkeln sie der US-Ökonomie natürlich damit ins Lagerfeuer, weil alles, was an positiven KI-Optimismus vermutet oder erhofft wird, bleibt dann immer mit diesen großen Fragezeichen, über das wir jetzt viel zu lange geredet haben, versehen, ob das alles so klappt, solange China sehr, sehr günstig diese Konkurrenzmodelle bauen könnte, theoretisch. Gleichzeitig gibt es aber auch in den USA... dann sogar Rufe, die KI-Entwicklung zu verlangsamen. Und zwar ist da jetzt zuletzt wieder Bernie Sanders, das ist so ungefähr der linkeste Congress-Member, den man sich vorstellen könnte in den USA, also gilt da als Kommunist, bei uns wäre er irgendwie wahrscheinlich linker Flügel der SPD, wenn überhaupt. Aber der sagt quasi, wir sollen das verlangsamen und schreit wieder nach so einem Moratorium, Also er hat sich getroffen mit den Executives, den CEOs dieser Firmen oder verschiedene Senatoren haben sich mit denen getroffen und sind offenbar mit dem Eindruck herausgekommen, dass die negativen Effekte wie Jobmarket Disruption und so weiter früher eintreten werden, als man sich vorstellen kann. Und dementsprechend klingelt er jetzt an der Alarmglocke und sagt, Wir müssen das irgendwie verlangsamen oder stoppen. Und das wiederum ist natürlich vollkommen illusorisch. Also so nachvollziehbar das auch ist, dass man glaubt, dass diese Technologie viel zu schnell voranschreitet und schneller als man Politik dafür machen kann oder Gesetze erlassen kann, Das stimmt alles, das ist ein Problem, was wir haben, aber dieses China-Szenario ist halt schon wichtig und ich mag dieses, aber ansonsten macht China das Argument eigentlich nicht so, gerade bei Social Media und Delivery-Diensten und wo da schon immer alles verwendet wurde oder Datenschutz. Da fand ich das nicht immer einschlägig. Aber dieses KI-Wettrennen ist natürlich schon so, dass wir nicht erlauben können, dass China das gewinnt und am Ende bessere Modelle baut, eventuell eine militärische Übermacht damit aufbaut und so weiter und so fort. Von daher... finde ich die Argumente zwar nachvollziehbar von Bernie Sanders, würde mich denen aber nicht anschließen. Ob ich lieber in einer Welt leben will, also ja, ich will lieber in einer Welt leben, wo das in den US-Händen ist, noch lieber würde ich natürlich in einer Welt leben, wo wir irgendwie ein bisschen Souveränität als Europa hätten, eigene Modelle und auch eigene Verteidigungstechnologie basierend auf AI wahrscheinlich. Ob das wiederum auch so realistisch ist, ist eine andere Frage.
Aber man könnte doch auch argumentieren, dass wenn USA langsamer wird, auch China langsamer wird. Mit Bezug auf die Geschichte davor.
Natürlich. Was Entropic zum Beispiel sagt, warum sie das Abkupfern von Claude so gefährlich finden, ist, weil sie sagen, damit könnte China das auch bald für Rüstungstechnologie einsetzen, für Waffen und so weiter. Klar, solange China nur abschaut oder abschreibt, würde eine Verlangsamung des US-Machtaufbaus auch Verlangsamung der chinesischen Macht heißen. Aber die Gefahr ist natürlich, dass sie irgendwann den Blinker setzen und überholen, weil man basierend auf den Erkenntnissen dann doch vielleicht das erste World Model aus China entwickelt oder neuen Ansatz auf LLMs oder deutlich effizienter mit günstigem Strom schneller vorankommt. Und das ist natürlich ein Risiko, was man nicht eingehen möchte, auch wenn es sich im Moment noch recht komfortabel anfühlt.
Dann ist hier eine Grafik, die hat mich so ein bisschen an die letzte Pivot-Folge erinnert oder eine der letzten. Da hat Scott Galloway gesagt, dass er glaubt, dass so SaaS-Firmen eigentlich jetzt zu sehr abgestraft sind. Und er meint, man könnte da hier und da ein Schnäppchen machen. Also mit dem Argument so, Salesforce, er hätte sein ganzes Team auf Salesforce geschult, er würde jetzt nicht irgendwie einfach hier irgendein KI-Ding nehmen. Für 80% des Preises und er denkt, dass da eher so ein Bargain wäre aktuell. Er meint, die werden alle genug abgestraft und er würde da jetzt irgendwie ein bisschen was kaufen. Jetzt sehe ich hier so einen Graph, das zum Beispiel ServiceNow zeigt. abgestraft wurde nach irgendeinem Blogpost, was du uns jetzt erklären wirst. Was soll ich eher glauben? Wird die Zukunft eher so aussehen, wie ich sie sehe? Also der SARS-Winter oder sollte man mal wieder auf Scott Galloway hören.
Ich würde es mir immer gerne differenzierter sehen. Also ich glaube, es gibt SaaS-Firmen, die werden tendenziell weniger betroffen sein, welche, die tendenziell mehr betroffen sind. Zum Beispiel die, die irgendwie basierend auf Arbeitsplätze abrechnen. Da ist das, glaube ich, so. Ich glaube, deswegen ist ServiceNow oder Salesforce auch eher übermäßig betroffen. Und es gibt, glaube ich, andere, die eher weniger betroffen sein werden. Also das sind irgendwie... also es wurden ja zum Beispiel Cloudflare und Crowdstrike sehr stark abverkauft, in dem Fall wegen Cloud Security Check, also weil Cloud Software auf Sicherheitslücken checken kann und ob es Sinn macht, dann deswegen alle Security-Stocks in den Keller zu schicken, bin ich mir nicht so sicher. Also glauben wir, dass der Chief Information Security Officer von IBM oder von Delta Airlines jetzt von Cloud Code seine Software in Zukunft checken lässt und deswegen nicht mehr Kunde bleibt? Du kannst sagen, Das muss gar nicht passieren, wenn nur ein paar Kunden schwerer zu erreichen sind oder wenn die Verkaufsverhandlungen schwerer werden und die Margen drücken, ist das auch schon schlecht. Da mag was dran sein. Ich glaube auf jeden Fall, dass es nicht alle Softwarefirmen gleichermaßen betrifft und dass das da teilweise zu einer Übertreibung kommt. Fairerweise, was man sagen muss, ist, die Firmen, die ich gerade genannt habe, sind ja auch relativ hoch bewertet. Und warum sie so hoch bewertet sind, ist, weil sie ihre Umsätze steigern wie ein Schweizer Uhrwerk in der Vergangenheit. Und wenn jetzt aber relativ viel Unsicherheit im Markt herrscht und auch wenn irgendwie ein Blogpost reicht oder ein neues Cloud-Feature, um deinen Aktienkurs dann 10% in Limbo zu bringen, dann ist die Bewertung der Stabilität vielleicht doch ein bisschen übertrieben gewesen. Also ich finde es wirklich schwer, das vorauszusehen. Ich glaube, es überschätzt auch, wie viele Menschen eigene Agenten überhaupt einsetzen werden. Ich glaube, es überschätzt, wie große Unternehmen ihre Entscheidung treffen und dass es um Cover My Ass geht und niemand will die, also zeigt mir den Menschen, der in einem großen Unternehmen sich traut, in KI-Agenten wichtige Funktionen übernehmen zu lassen, die im Moment Software übernimmt. Plus, dass die Softwarefirmen natürlich auch selber Agenten bauen werden. Also alles, was mit Agenten möglich sein wird, werden die großen Anbieter Vielleicht mit einer gewissen Zeitverzögerung, aber natürlich werden die versuchen, das in ihre Produkte einzubauen. Ich denke, sie werden bei ihrer Disruption nicht so zuschauen, wie die Medien irgendwie beim Internet zugeschaut haben, behaupte ich. Und trotzdem kann es sein, dass einzelne SaaS-Produkte, was nennen wir da mal, Asana, Monday, Atlassian, da sehe ich schon eine extreme Gefahr. Dass man auf teilweise überkomplexe, sehr teure Tools nicht mehr zurückgreifen will, wenn man einfach nur ein einfaches Projektmanagement haben will. Sowas kann man schon ganz gut wipecoden, gerade für Startups oder so. Was jetzt diesen letzten Sell-Off nochmal beschleunigt hat, ist der sogenannte Citrini Research Article. Der heißt ausgeschrieben, also der wurde uns ungefähr ein Dutzend Mal zugeschickt und heißt, es ist ein Substack von Citrine Research, Aleph Shah heißt der Analyst und der Name ist The 2028 Global Intelligence Crisis. Und es ist ein Postmortem, also Postmortem heißt quasi, wenn man sich nach dem Tod etwas anschaut, Aber aus der Sicht von heute. Also man guckt eigentlich, 2028 beschreibt man eine Situation, der Welt geht es wirklich schlecht und wie ist es eigentlich dazu gekommen? Schaut man sich dann retrospektiv an, obwohl man natürlich heute in der Gegenwart das schreibt, also es ist ein bisschen so ein Mindfuck. Ein paar Grundannahmen, die glaube ich ganz spannend sind. Also das eine ist, dass es wirklich, wirklich gefährlich ist, wenn man einen Großteil der White-Collar-Jobs angreifen würde. Also sollte man es wirklich schaffen, da Jobs abzuschaffen und würden nicht ausreichend neue, gut bezahlende Jobs entstehen, dann wäre das problematisch, weil die US-Ökonomie so stark am Domestic Spending hängt. Also die USA sind keine Exportweltmeister, außer bei digitalen Dienstleistungen, sondern sie Das Wachstum der USA basiert sehr stark darauf, dass Menschen, die hochbezahlte Jobs in Finance, Tech und so weiter haben, mehr Geld in der eigenen Ökonomie ausgeben. Größere Autos fahren, besseres, teures Essen essen und so weiter. Und wenn man diese Leute arbeitslos machen würde, die Midtown-Banker und die Silicon Valley Produktmanagerin und Developerin, dann... Hätte das eventuell katastrophale Effekte und so Kettenreaktion auf die gesamte US-Ökonomie? Das ist eine Annahme. Plus, er versucht immer so Teufelskreise zu beschreiben, also dass es den Unternehmen schlechter geht, deswegen nutzen sie noch mehr KI, um ihre Margen zu verbessern, deswegen werden noch mehr Leute gefeuert, deswegen geht es anderen Unternehmen wieder schlechter, weil die Leute gefeuert werden und die jetzt keine Software mehr nutzen sozusagen in ihrem Beruf und dadurch müssen andere Softwarefirmen die Leute entlassen. Und solche Teufelskreise versucht man zu kreieren. Das kann wahr sein, muss nicht wahr sein, würde ich sagen. Es gibt viele Leute, die sagen, es werden genauso viele Jobs in anderen Rollen wieder entstehen. Also vielleicht gibt es weniger Leute, die Software schreiben. Und trotzdem werden mehr Zeilen Code generiert von Leuten. Also es gibt mehr Softwarebilder, wenn du so möchtest. Wie gesagt, es ist unheimlich schwer, die Zukunft vorauszusagen. Es kann schon sein, dass gewisse Berufe viele Jobs verlieren und gleichzeitig kann es eben sein, dass neue Jobs entstehen. Zum Beispiel, dass ganz viele Leute so kleine Produktmanager werden. Es wird ganz sicher deutlich mehr Software gebaut. in Zukunft. Die wird halt von Agents geschrieben, zunehmend dann, oder von Code oder Codex von OpenAI geschrieben. Aber irgendjemand wird das schon noch befriedigen, irgendjemand muss kontrollieren, irgendjemand muss den Output sich anschauen, ob es überhaupt funktioniert. Kann schon auch sein, dass da viele Jobs entstehen. Am Ende ist Software am stärksten begrenzt, wenn man so möchte, durch die Aufmerksamkeit und den Ideenreichtum von Menschen in Zukunft. Und das andere, was ich ganz spannend finde, das finde ich tatsächlich den spannendsten Gedanken, ist, dass, also er glaubt hier an sowas wie Agentic E-Commerce. Und das ist so ein bisschen die Idee, mit der ich in der Vergangenheit mal sympathisiert habe, dass jeder Mensch so ein bisschen einen Shoppingagenten hat oder einen Verbraucherschutzagenten, der nur dem Wohl des Nutzers verpflichtet ist. Ich kann mir nicht vorstellen, dass Big Tech sowas baut, weil sie wollen ja Geld mit Werbung verdienen und nicht mit Verbraucherschutz. Und das widerspricht sich sehr stark, würde ich behaupten. Aber sollte es solche Agenten geben... dann könnte man alles, was man bisher sozusagen aus menschlicher Schwäche macht, zum Beispiel aus Faulheit, also ich kaufe bei Amazon ein, weil ich faul bin und zahle da eventuell mehr. Ich gehe nicht zu Idealo und mache einen Preisvergleich zwischen 20 Anbietern, der ja schon relativ leicht ist, aber trotzdem ist es ein Zusatzaufwand, sondern ich kaufe bei Amazon im Moment aus Faulheit. Ich kaufe bei Booking aus Faulheit, weil ich nicht bei jedem Hotel anrufen möchte, was ist denn die Rate, die sie mir außerhalb von Booking anbieten, wenn ich direkt buche und so weiter. Und Diese Faulheit, die kann ein Agent natürlich in Zukunft lösen. Also ich beauftrage einfach meinen Agenten, das für mich zu machen. Und damit bekäme ich eventuell immer den besten Deal. Das heißt, der Agent würde immer die Produkte vergleichen, der würde niemals beim teuersten Shop kaufen, der würde auch vielleicht nicht mehr die teuerste Brand kaufen, sondern würde wirklich schauen, welches Produkt, egal woher es kommt, wer es produziert hat, die besten Specs, beste Leistung. Und damit könnte alles, was Marge ist, bei Herstellern, bei Plattformen und so weiter, hinfallen. Also der Teil der Marge, der nicht auf echte Modes beruht, sondern auf Impuls, Faulheit, Hektik, FOMO, solche billigen menschlichen Gefühle, oder niedrigen Instinke, der könnte wegfallen, wenn Agenten diese Arbeit machen. Das finde ich eine ganz spannende Idee. Ich glaube, es überschätzt auch wieder ein bisschen wie viele Leute wirklich Agenten nutzen würden. Es kommt dann sehr stark darauf an, wie gut das Interface ist. Also schaffst du es, eine Software zu bauen, die wieder so einfach ist, dass jeder sie nutzen wird und jeder ihr vertraut und dass sie so zuverlässig genug ist und so weiter? Ob es überhaupt eine Software geben wird, die meine Interesse als Consumer verteidigt und nicht dann doch wieder versucht, mir teure Produkte zu verkaufen, weil die Werberlöse höher sind aus teuren Produkten? Weil aus dieser Marge wird ja auch die Werbung bezahlt. Das heißt, würde Google... sowas bauen, würden sie sich massiv ins eigene Fleisch schneiden, weil wenn die Firmen nicht mindestens 30% Rohmarge haben, können sie nicht 15% Werbe oder 10% Marketing-Ausgaben an Google weiterreichen. Insofern bin ich mir gar nicht so sicher, dass das so kommt. Der bezieht das dann auch auf andere, also weitestgehend alle Marktplätze, zum Beispiel Immobilien, Autos und so weiter. Einen schönen Satz finde ich, dass die Agenten Friction, also Reibung oder Reibungsverluste bekämpfen. Und alles, was wir heute als Human Touch bezeichnen, ist eigentlich nur Friction with a smiling face oder so nennt er das. Also jeder Makler, und ich meine, das hat das Internet auf jeden Fall gezeigt, da wo Menschen dazwischen stehen und sieben Prozent für irgendwas nehmen, da hat das Internet zuerst zugegriffen. Mit Immobilienplattform, mit Autoplattform, mit Jobplattform. Das ist immer die ersten Classified Business, die entstanden sind. Früher war das Geschäftsmodell Classified, dann war es Marketplaces und in Zukunft wird es wahrscheinlich Agenten sein.
Ja, aber lass uns da mal kurz bleiben. Ich meine, Immobilienmarken, da haben wir schon vor 20 Jahren gedacht, dass die irgendwie irgendwann replaced werden. Und wieso sind die immer noch so fest in ihrem Stuhl?
Ja, gleichzeitig haben die irgendwie eine sehr starke Lobby und schaffen sich über Wasser zu halten. Und du hast hohe Transaktionskosten teilweise, Nebenkosten des Erwerbs und sowas, das so ein bisschen auch verschleiert.
Gleiche könntest du sagen mit irgendwie Buchhaltung, hier Steuerberater.
Ich finde den Job-Market eigentlich am spannendsten, weil da könnte man ja sagen, es gibt eine Firma, die sucht händeringend Arbeit und es gibt Menschen, die suchen händeringend einen Job. Und dazwischen steht jetzt auf der einen Seite irgendwie eine Software-Plattform, wo ich einen Lebenslauf generieren muss erstmal, wo ich aufschreiben muss, was ich gemacht habe, wo ich das hochladen muss als PDF und auf der anderen Seite muss jemand sich ein PDF runterladen und es in eine Datenbank importieren. Das macht ja alles so keinen Sinn. Also da sollte die Firma einen Agent haben, der Kandidaten und Kandidatinnen screent. Und die Kandidaten sollten einen Agent haben, also wie so einen Sportagent oder Schauspielagent, der sie so gut wie möglich verkauft und vertritt. Also der nicht sagt, Philipp saß zweimal wegen Clown im Knast, sondern Philipp ist gut im Out-of-the-Box-Thinking und geht oft Wege, die noch niemand vorgegangen ist.
Ach, du redest über dich? Ich habe gedacht, du redest über mich.
Ich meine dich. Und to be fair... Menschen machen diesen Prozess nicht zwangsläufig besser, wenn sie dazwischen stehen, würde ich behaupten. Ich möchte niemandem, der in der HR arbeitet, dazu nahe treten, aber sofern man das Bias irgendwie raustrainiert bekäme, müsste eigentlich ein KI-Agent das besser machen. Zumindest den Recruiting-Auswahlprozess, würde ich behaupten. Das Gleiche kann man eben bei der Automarkt ist komplett commoditized. Ganz ehrlich, ich brauche, also wenn du überlegst, wie viele Autohändler es gibt, wie viele Autohöfe es gibt, wo Autos rumstehen mit den Du könntest so viel mehr Liquidität Turnover haben, also wenn es nicht einen Typ gäbe, der 10-15% des Verkaufspreises bekommt dafür, dass er das Auto ein halbes Jahr auf dem Hof stehen hat, das verrostet, das wird nicht genutzt, das macht alles keinen Sinn. Du könntest den Markt komplett liquide machen, wenn du sagst, diese ganze Kommission nehmen wir raus und dafür flippen wir Autos mit 2% Marge raus. innerhalb von Tagen. Dafür machen sie halt so günstig, dass sie innerhalb von zwei Tagen fahren. Wir finden sehr schnell den perfekten Verkaufspreis für jedes Auto. Wir bauen dahinter eine Logistik, die das Auto relativ schnell an jeden Ort bringen kann innerhalb von Europa. Das ist ja so ein bisschen wahrscheinlich, was wir kaufen, ein Auto und so geplant hat. Kann man schon sagen, dass auch das Agenten eigentlich besser können. Da trifft das wirklich zu. Der Autoverkäufer ist Friction. Also Ich meine, das ist der teuerste Kaffee, den du trinken kannst, wenn du ins Autohaus gehst und da einen Kaffee trinkst, um dir ein Auto aufquatschen zu lassen. Weil das kostet eigentlich 5.000 Euro, der Kaffee, wenn du ganz ehrlich bist. Würde das Unternehmen, egal ob neu oder gebraucht, direkt an Consumer verkaufen, sparst du sehr, sehr viel Geld. Und das ist am Ende dann, was du weniger zahlen musst für das Auto. Er erzählt dann auch ganz spannend, er erklärt quasi wie die großen Plattformen, wo man eigentlich denken würde, die haben massive Netzwerkeffekte. Und die würde ich zum Beispiel fast explizit ausnehmen. Man kann sagen, eine Sache, die gute Margen bedingen, sind starke Netzwerkeffekte. Das ist ein Mode, ein Burggraben. Wenn ich starke Netzwerkeffekte habe, so wie große Plattformen, also zum Beispiel Uber Eats oder DoorDash oder Lieferando oder was auch immer man da sehen möchte, dann ist das schwer zu disruptieren. Selbst wenn jemand für 5 Euro ein neues Lieferando-Vibe coden kann, ist es trotzdem schwer, die ganzen Restaurants so schnell anzuborden oder die ganzen Fahrer zu managen und so weiter. Und da beschreibt er so einen Zerfall in einen atomistischen Markt. Also dass Restaurants sich tatsächlich ganz viele, also eine eigene App quasi coden. Und dass Fahrer wiederum 20 verschiedene Delivery-Apps dann nutzen und darauf wird aber zum Beispiel dann eine Meta-App gebaut, so ein bisschen wie wir das aus dem Taximarkt schon kennen. Also ich fahre für Bolt, Uber, Freenow und die Taxizentrale und dann würde ich quasi eine Meta-App bauen. die alle diese Dienste für mich managt und ich nicht ständig zwischen diesen Apps hin und her schalten muss. Und so könnte man theoretisch sogar den Markt disrupten, wobei ich das nicht 100% unterschreiben würde, dass das wirklich so passiert. Sondern eine große Plattform mit Netzwerkeffekten zu disrupten ist nicht so einfach, würde ich mal behaupten. Dann geht es ein bisschen darum, wie das Ganze am Ende über die faulen Kredite für Data Center und, und, und über die schlechten, über eventuell Investments mit Private Equity Geld in Softwarefirmen, die dann kippen, wie das in den in den Debtsektor, also Schuldenmarkt, reinkommt, wie am Ende mehr oder weniger die gesamte Finanzwirtschaft mitkippen könnte und die gesamte US-Wirtschaft und so weiter. Das ist dann so ein Doomsday-Szenario. Ich finde es ein gutes Gedankenexperiment. Was mich immer dann doch wundert, ist wie Firmen dann wirklich Milliarden an Wert verlieren über Nacht, weil jemand sowas aufgeschrieben hat. Weil du würdest ja vermuten, dass der Markt so effizient ist, dass Die schlauesten Köpfe bei Goldman Sachs, Morgan Stanley und so weiter, die Analysen schreiben für sowas und die quasi die Prognosen der Firmen einschätzen müssen. Dass die im Kopf nicht ein Szenario haben, ob das passiert oder nicht, aber so viele verschiedene Szenarios und mindestens eins sollte beinhalten, Software könnte disrupted werden durch KI-Agenten und so weiter. Das heißt, das müsste eigentlich alles in den Kursen eingepreist sein. Und es kann eigentlich nur eine irrationale Übertreibung sein. Nach meinem Verständnis von Börsenlogik und wie Informationen und Meinungen über Aktien sich bilden Wenn dann irgendwie ein Blackstone, also ein Private Equity Investor in Datacenter und viele andere Firmen, über Nacht 10% verliert oder DoorDash ServiceNow zwischen 6 und 8% verlieren, Visa Mastercard 3% verlieren, was krass große Businesses sind. Da ist der Hintergrund, dass der Autor glaubt, dass Stablecoins quasi Kreditkarten ersetzen werden, weil Agents hätten keinen Grund mehr eine Kreditkarte zu nutzen, was eine ganz gute Theorie ist theoretisch. Da frage ich mich, hat dieser Artikel jetzt wirklich die Meinung aller Investmentbanken der Welt über Nacht geändert und hat niemand das vorausgesehen? Also ist es jetzt wirklich ein Genius, der was gesehen hat, was niemand anders sehen kann? dann würden, würde ich sagen, alle Investmentbanken sehr schlechte Arbeit machen, wenn du so schnell deine Meinung erinnerst. Oder es ist einfach nur jetzt sozusagen ein Mini-Crash, der von Privatinvestoren, die da hektisch reagieren, gefuehlt wurde. Das halte ich für wahrscheinlicher und dann ist es wahrscheinlich eine Übertreibung ohne Nachkaufgelegenheit. Oder wir erklären es nochmal an dem Cloud-Security-Thema. Also wenn du bist... Wenn du bis vorgestern nicht geglaubt hast, dass Cloudflare oder Crowdstrike disrupted werden können von Software, dann sollte dich auch Cloud Security nicht schocken. Und wenn du geglaubt hast, dass sie disruptbar sind ohne weiteres, dann hättest du sie niemals besitzen sollen. Also dass es Leute gibt, die die Aktien besitzen und dann warten, bis Cloud Security rauskommt, um sie dann zu verkaufen... ist meiner Meinung nach eine sehr irrationale Reaktion. Wenn du die Aktie besitzt, muss dir das klar sein, dass das ein Szenario ist, aber dass du sie besitzt, zeigt ja, dass du glaubst, es wird nicht so schlimm. Und wenn nicht, bist du einfach stupid money, was jetzt sehr fickrig auf irgendwelche Blogartikel reagiert. Aber das gehört natürlich auch zur Bubble-Phase. Also Informationen verbreiten sich halt jetzt so schnell und der Artikel ist gut geschrieben, es ist ein mögliches Szenario, es ist gut hergeleitet und trotzdem ist es nicht das Szenario, was jetzt 1 zu 1 eintreten wird, da bin ich mir relativ sicher.
Ich habe mich gerade gefragt, ob es sein kann, dass dieser Artikel oder irgendwann mal ein Artikel einfach sehr gut von Agents verstanden wird und daraufhin dann Sachen verkauft werden. Also aktuell musst du ja irgendwie in anderen Listen überzeugen, dass irgendwas passiert und es gibt ja irgendwelche Automatismen oder wie auch immer. Also kann es sein, dass es irgendwann so ein AI Black Swan gibt, der irgendwas anspielt, also wo ähnlich wie eine Story, die wir ganz am Ende hier noch haben, dass man irgendwie schnell zum Computer rennen muss und Strom ausmachen muss, damit die KI nicht weitermacht. Also das irgendwie...
Ja, super Punkt. Absolut. Ganz wichtige Ergänzung eigentlich. Ich habe jetzt über die irrationalen Kleinanleger und die Investmentbanker, die es eigentlich besser wissen müssten, gesprochen. Die Wahrheit ist natürlich auch, dass es viele automatisierte Programme gibt. Die Twitter-Monitoren und dieser Citrini-Artikel ist sehr viral gegangen auf Twitter, auf Substack, auf LinkedIn, wo auch immer man das lesen wollte. Er wurde uns, wie gesagt, mehrmals zugeschickt, auch zu Recht. Man hat ja gesehen, dass er jetzt sehr viel Einfluss hat. Und die Gefahr ist natürlich, dass automatische Programme das Sentiment messen. Die sehen, es kommt zu einem beginnenden Abstoß und machen dann einen Panikverkauf. Oder shorten die Aktie sogar und beschleunigen damit den Verkauf. Und früher hat man irgendwie Anschläge auf den Bus von, gab es nicht mal so einen Anschlag auf den Bus von Borussia Dortmund und dann mit der Aktie spekuliert oder so? Also was wir ganz sicher sehen werden, ist, dass Leute News erfinden. Also was würde ich machen? Ich würde eine chinesische Firma erfinden, die es vielleicht sogar gibt, sagen, die hat vorher quantitativen Research gemacht oder so. Also ich würde quasi einen Fake-Deepsieg erfinden. Und dann bringe ich einen Fake-Test raus, irgendwie so eine Tabelle, wo es so aussieht, als hätte ich, also genau die Story wieder. Mit einem Mac Mini habe ich ein besseres Modell als OpenAI gebaut für 3,50 Euro. Oder ich habe ServiceNow, Salesforce und SAP nachgebaut mit Vibe-Coding innerhalb von einem Wochenende. Das versuche ich dann möglichst gut in Narrative zu verpacken, mit Bots und so weiter, spreade ich es weiter im Internet, finde ein paar Journalisten, die darauf reinfallen. Und dann manipuliere ich damit Börsenkurse. Das soll kein Aufruf sein natürlich. Aber das ist eine Gefahr, die ich sehe. Und warum diese Abstürze sehen schon sehr impulsiv aus. Es ist eben nicht so, dass unheimlich viele Kleinanleger jetzt die Aktie von heute auf morgen verkaufen oder innerhalb von Minuten verkaufen. Sondern diese Flash-Crashes liegen natürlich an immer mehr automatisierten Bots, die mittraden oder Programmagenten, die mittraden. Oder diese ganzen Leute, die gerade versuchen, basierend eben auf Krog oder so ihre eigenen Trading-Algorithmen zu bauen, weil sie glauben, das wäre eine schlaue Idee. All das könnte natürlich davon auch beeinflusst werden. Also was denkt Krog? Der liest auf X den Artikel und denkt, hey, das ist eine Trading-Chance. Also sagen wir wirklich, du baust jetzt deinen Trading-Algorithmus, der auf Kroc basiert. Kroc hat als erster Zugang zu den Live-Daten auf X, sieht diesen Artikel, sieht diesen Artikel trenden, sieht darin gewisse Bloomberg-Ticker vorkommen Ich warte auf die erste Bewegung im Kurs. Wenn ich sehe, es gibt eine Sensitivität, der Kurs bewegt sich, steige ich sofort ein und shorte diese Aktien. Dadurch wird das nochmal massiv verstärkt. Da bin ich mir relativ sicher, dass das eine Rolle spielt. Eine andere Sache, die uns zugeschickt wurde, aber die auch hauptsächlich auf LinkedIn viral gegangen ist, ist ein Artikel von thelocalstack.eu. wo jemand beschreibt, was eigentlich passiert ist, als er sich den blauen Haken auf LinkedIn geholt hat.
Du hast einen, ich habe keinen.
Ja, gut für dich. LinkedIn bietet eine Möglichkeit an sich mit Pass zu verifizieren, um zu zeigen, dass man eine echte Person ist und die Person, die diesen Namen trägt. Das dient so ein bisschen dem Schutz vor Impersonation oder Identity Theft. Und jetzt beschreibt hier aber jemand, welche Risiken das bucht, weil Der Dienstleister, der diese Verifikation übernimmt für LinkedIn, also surprise, LinkedIn hat dafür keine eigene Software gebaut, sondern nutzt die Firma Persona Identities, die in San Francisco sitzt. LinkedIn, so wie, keine Ahnung, die Banken in der Regel IDNow oder irgendein ID-Verfahren nutzen. Damit fängt es schon an. Das ist jetzt nicht so untypisch. Und dann listet der Mensch hier auf, haben wir einen Namen? I'm Rogi. Rogi ist done with surveillance capitalism. Okay, Rogi hat eine Agenda, das hört man auch so ein bisschen raus, da kommen wir gleich drauf. Also dann schreibt Rogi hier, was hat er eigentlich LinkedIn gegeben? Seinen vollen Namen, sein Passfoto, ein Selfie, was während des Prozesses entsteht, kennt man auch, wenn man sich schon mal für die Bank angemeldet hat. Die sogenannte Facial Geometry, biometrische Daten, also wie dein Gesicht gebaut ist, wird natürlich daraus abgeleitet. NFC-Chipdata, National ID Number, also die Ausweisnummer, Nationalität, Geschlecht, Geburtsdatum und Alter, was auf dem Ausweis vermerkt ist. Die E-Mail-Telefonnummer und Postadresse gibt man an. Außerdem wird natürlich die IP-Adresse, mit welchem Gerät man sich einloggt, MAC-Adresse, Browser, OS, Version Language und die Geolocation von der IP abgeleitet. Und außerdem gibt es eine sogenannte Hesitation Detection und Copy and Paste Detection, die parallel läuft bei Persona. Das heißt, es wird gemessen, wie souverän du auf Nachfragen reagierst. Also ob du vielleicht zu flüssig arbeitest, was auf ein Bot hindeuten könnte, oder ob du zu lange wartest bei gewissen Handlungen und ob du Dinge copy-pastest. Oder ob du sie quasi abschreibst. Also sagen wir mal die Ausweisnummer, lustigerweise copy-paste ich die tatsächlich immer, aber die würde ein Mensch halt in der Regel vom Ausweis abschreiben. Jemand, der das automatisiert tut, würde die aber quasi wahrscheinlich copy-pasten in das Feld. Außerdem beschreibt er, dass Persona, er sagt, dass seine Freunde anruft. Und zwar, das hat er alles aus den Datenschutzbedingungen quasi abgelesen. Nämlich, dass er mit Regierungsdatenbanken, nationalen Passdatenbanken, Auskunftsteilen, sowas wie Schufa Utility Companies, also Energieversorgern zum Beispiel, Mobile Network Providers, Telefon, Telco Companies und Postadress-Datenbanken arbeitet. Dann wird das Gesicht für Trainingsdaten verwendet und am Ende bekommt LinkedIn den Namen, das Geburtsjahr, mit welcher ID sich registriert wurde, ein Ja oder Nein und eine Version des Ausweises, wo nur noch das Gesicht und der Name draufsteht. Und dann bemängelt er weiterhin dass außerdem Persona wiederum mit Dienstleistern arbeitet, unter anderem die GROG Cloud, GROG mit Q, also dieses TPU, nee, LPU, nee, wie heißt das, Language Processing Chips, LPU, also einen Chip-Hersteller oder einen Chip-Cloud, OpenAI, Entropic, AWS, Google Cloud Plattform, Fingerprint, JS, MongoDB, Snowflake, Elasticsearch, Confluent, Tableau, Stripe, Twilio und so weiter. Und was er quasi sagen will ist, er hätte nie dazu zugestimmt, die Daten gehen in die USA und das ist natürlich sozusagen für Attention and Enragement Farming ein großartiger Artikel, weil du denkst natürlich, oh Gott, was ist mit meinen Daten, alles passiert. Aber die andere Frage ist ja, wie willst du ansonsten Verifikation machen? Also das Gleiche ist natürlich passiert, also mit der Ausnahme vielleicht, dass die Daten nicht in die USA gegangen sind, wenn du dich eben für eine Bank anmeldest oder so. Ohne zum Beispiel die KI zu trainieren auf den Gesichtern. Wie möchtest du denn immer besser werden mit dem Produkt, wenn du nicht basierend auf den Daten zum Beispiel trainierst oder Reinforcement Learning immerhin machst, um die positiven und negativen Entscheidungen am Ende auszuwerten? Wie willst du ohne Hesitation, Copy-Paste-Detection gute Anti-Fraud-Arbeit machen? Also all diese Sachen brauchst du halt, um Ausweise sinnvoll zu verifizieren. Ansonsten kannst du es nicht Gut machen. Insofern verstehe ich nicht so richtig, woher die Aufregung kommt. Auch, dass man das irgendwo hosten muss und deswegen Verträge mit anderen Dienstleistern wie Entropic oder den Cloud-Anbietern hat, finde ich jetzt auch nicht überraschend. Dass die USA dann über den Cloud-Act darauf zugreifen können, das wissen wir, das wäre aber auch in einem EU-Datacenter so. Das Einzige, was wirklich bedenklich ist, ist, dass Persona diese Daten bis zu sechs Monate stored. Das verstehe ich so. Das ist ein Problem. Ich glaube, um das zu tun, was sie tun wollen, brauchen sie diese Daten alles. Ich wüsste nicht, wie man Leute vernünftig verifizieren kann, ohne genau diese Daten alle einzusammeln. Was ich erwarten würde, ist, dass in dem Moment, wo die Verifikationsentscheidung getroffen ist, LinkedIn einfach nur einen Ping bekommt, ob ich der bin, der ich sage oder nicht. und Persona in dem Moment meine Daten löscht. Und das ist hier eben problematisch, dass upon completion of verification or within six months of your last interaction. Und all within six months of your last interaction ist natürlich hochproblematisch. Jetzt wissen wir nicht, ob LinkedIn vielleicht sich ausbedungen hat, dass eben diese sechs Monate Storen gar nicht gemacht wird. Aber in den Bedingungen steht erstmal drin, das wäre möglich. Das möchte ich natürlich tendenziell nicht, zumal dann eben irgendwann, also und dann gibt es eben noch die Einschränkung, es sei denn, US-Behörden wollen diese Daten haben, dann können sie sie eben bekommen. Das wäre auch problematisch.
Schöner Übergang zur nächsten Geschichte.
Genau, da kommen wir nämlich, das ist nämlich der Übergang. Ganz kurz sozusagen als Verbraucherschutzhinweis. Natürlich hat man laut GDPR das Recht, diese Daten löschen zu lassen. Das steht hier in dem Artikel. Wir packen in die Shownotes die Anleitung. Also man kann dem Data Privacy Officer da schreiben und sagen, ich beanspruche die Löschung meiner Daten. Ich möchte nicht, dass die sechs Monate gespeichert werden. Das werden wahrscheinlich Zehntausende von Leuten gerade tun. Aber dazu wäre die Firma zumindest nach europäischem Recht verpflichtet. Wie gesagt, diese sechs Monate Speicherung, also man hätte sich glaube ich diesen Artikel speichern können und sagen, einfach wusstet ihr, dass all diese Daten sechs Monate gespeichert werden, im schlimmsten Fall von Persona. Ansonsten, wie gesagt, wenn man sich verifizieren will, sollte man nicht überrascht sein, wenn dafür Daten erhoben werden müssen, um sicherzustellen, dass du auch wirklich ein Mensch bist und dich menschlich verhältest und so weiter. Also so richtig verstehe ich die Aufregung hier nicht. Und das wissend hätte ich trotzdem meinen blauen Haken beantragt, um mich zu schützen und meine Follower zu schützen vor allen Dingen. Und dann hätte ich trotzdem so schnell wie möglich darum gebeten, meine Daten wieder zu löschen, weil der Zweck ja erreicht ist und es gibt keinen Grund, diese Daten auch nur einen Tag länger vorzuhalten. Insofern, das ist wiederum der berechtigte Teil der Kritik hier. Und Warum das problematisch ist? Ja, das zeigt, das ist der Übergang in die Schmuddelecke und zwar schreibt Wired, dass das DHS, das ist das Department of Homeland Security, die sogenannte Heimatschutzbehörde unter der Leitung der früheren Influencerin oder ist sie früher Influencerin gewesen oder benimmt sich nur jetzt wie eine Influencerin? Auf jeden Fall läuft sie überall mit Kameras rum. Die wollen jetzt eine vereinheitliche Datenbank und Suchmaschine bauen, um Gesichts- und Fingerprint, also Fingerabdrucksdaten, über alle US-Behörden hinweg zugänglich zu machen. Also das DHS, Department of Homeland Security, dem auch ICE und so weiter unterstellt ist, soweit ich weiß, möchte quasi die Daten in allen US-Behörden durchsuchen können. Also jedes Parkticket und so weiter, aber auch was du irgendwie bei anderen Behörden eventuell hinterlassen hast. Darauf möchte die HHS Zugriff haben. Das ist, wofür Doja die Vorarbeit geleistet hat. Die haben ja unter dem Vorwand der Entbürokratisierung und Digitalisierung, und das verstehen, glaube ich, die naiven digitalen Berufsoptimisten manchmal, die denken, es wäre eine gute Idee, solche Daten zu vereinheitlichen und zu digitalisieren und zusammenzuführen. Das ist genau die Gefahr, die entsteht. Dass eine Regierung wie die von Trump oder schlimmer, dann am Ende quasi so eine Megadatenbank bekommt und damit die Überwachung von Menschen stark intensivieren kann und Bürgerrechte im schlimmsten Fall verletzen oder Menschenrechte sogar verletzen, indem sie das machen. Und deswegen ist es gut, dass gewisse Daten in Silos liegen, nur in einzelnen Behörden oder meinetwegen sogar in Salzbergwerken, wo sie nur im Ernstfall wieder aufwendig rausgeholt werden können, weil man eventuell nicht möchte, dass mit einer Abfrage irgendein Mensch, der durchdreht oder eine Behörde, die überbordend arbeitet oder die nächste faschistische Regierung, die an die Macht kommt, in der Lage ist, Leute so zu überwachen. Und genau das versucht das Department of Homeland Security. Jetzt natürlich unter dem Vorwand der Sicherheit und Immigrationsbewältigung und so weiter. Und ich glaube, es ist unheimlich gefährlich. Und wie gesagt, die Vorarbeit hat Doge dafür bereits gemacht. Doge war rein wirtschaftlich ein kompletter Fail, hat kaum Geld gespart. Aber es hat in der Datenhaltung der USA schon viel geändert und man muss unterstellen, dass das unter anderem jetzt dafür genutzt wird. Dann gibt es noch eine weitere spannende und auch sehr traurige Geschichte, über die das Wall Street Journal exklusiv berichtet. Und zwar sollen Mitarbeiter von OpenAI Hinweise erhoben haben auf das Nutzungsverhalten einer die später einen Amoklauf begangen hat. Also es geht um Jessie van Rotselaar, die in Kanada, ich glaube erst ihr Geschwisterkind und ihre Mutter umgebracht hat, später in der Schule sechs weitere Leben genommen hat. Und es sollen sich in ihrer Chat-Historie starke Anzeichen für, wie wird das hier genau genannt, ich glaube irgendwie gewaltvolles Verhalten oder so, gezeigt haben, die Mitarbeiter sollen das graced haben und gleichzeitig sagt OpenAI jetzt, es hätte eben die, also man hat ihren Account gesperrt daraufhin und gleichzeitig hätte es aber nicht die Anforderungen erfüllt, um sie an Behörden zu melden, also dass quasi der Plan nicht konkret genug geäußert wurde gegenüber dem Chatagenten. Hast du eine Meinung dazu, die du äußern möchtest? Sollte man das im Zweifel früher melden?
Muss Google das melden?
Muss Facebook das melden, wenn du es in WhatsApp diskutierst? was es nicht kann, weil es verschlüsselt ist angeblich.
Es zeigt auf jeden Fall, dass man als Nutzer das Gefühl hat, man kann alles fragen und das sollte es ja auch in Zukunft sein. Sobald irgendwie klar ist, wenn ich OpenAI irgendwas frage, Gehen irgendwelche Alarmglocken an und die Polizei steht vor meiner Tür, wird halt OpenAI nichts mehr gefragt. Und dann geht man halt zu Krog oder woanders hin. Also es wird wahrscheinlich immer einen, in Anführungszeichen, Safe Place geben, dem man die kritischen Fragen stellt.
Ja, genau. Das ist, glaube ich, der Kern des Problems, den du da ganz gut triffst. Es ist natürlich genauso, dass keiner, der KI-Anbieter möchte, dafür bekannt sein, jegliches auffälliges, eventuell krankhaftes, wahnhaftes Verhalten sofort den Behörden zu melden. Ein großer Vorteil dieser KI-Angebote ist eben auch, dass sie relativ vorurteilsfrei vielleicht eben auch zu vorurteilsfrei oder zu psycho-fantig, zu speichelleckerisch oft, den Nutzern beipflichten und versuchen, sie in ihren Vorhaben, was auch immer sie sind, zu bestärken. Wobei man sagen würde, sie in diesem Vorhaben sicherlich nicht bestärkt wurde von der KI, das wollen wir gar nicht unterstellen. Aber diese Vorurteilsfreiheit ist, warum viele Leute das zum Beispiel als psychologische Hilfe nutzen, als Coach, als Mentor, als Therapeut. Weil Egal, was ich sage, egal wie verurteilenswert das vielleicht gegenüber einem anderen Menschen wäre, die KI tut das erstmal nicht oder macht es in der Regel, selbst wenn, dann geduldiger und höflicher als die meisten Menschen. Insofern ist, glaube ich, nachvollziehbar, warum man da nicht zu früh melden will. Gleichzeitig zeigt es aber das Problem, wie schwer es ist, da eine Grenze zu ziehen. Also ich glaube, spätestens wenn es um planvolles Verhalten geht, also wenn jemand sagt, ich möchte jetzt den und den Bus nehmen und so, werde ich da... mit einer Waffe drin entdeckt, so ungefähr. Oder was auch immer auch für jetzt eine Planung hindeuten könnte. Ich glaube, das ist so die Grenze. Also sagen wir mal, jemand plant sowas wie den Anschlag auf den Breitscheidplatz damals in Deutschland. Da würden wir sicherlich verlangen, dass das gegenüber Behörden gemeldet werden soll. Aber wie gesagt, da muss man auch fragen, wann sollte Google eigentlich solche Schlüsse ziehen oder andere Kommunikationsdienstleistungen, die zumindest theoretisch in der Lage wären, sowas mitzulesen oder wird das nicht sowieso von der NSA größtenteils überwacht und so weiter und so fort. Und gleichzeitig werden wir natürlich immer mehr solcher Cases sehen, weil Chat-GPT nutzen, insbesondere für junge Menschen, so selbstverständlich wird wie Google. Und es wird kaum jemand noch etwas Grausames tun, ohne es vorher mit Chat-GPT besprochen zu haben. Also zumindest die statistische Wahrscheinlichkeit, dass das passiert, ist relativ hoch. Vielleicht gibt es Ausnahmen, aber wenn jemand Informationen sucht, dann tut das heutzutage eben nicht mehr nur in Google, sondern auch viel in Chat-Agenten und damit werden die quasi immer zum Kollaborateur und Helfershelfer in Verbrechen. Das lässt sich, glaube ich, nicht verhindern. Also die Firmen tun einiges dafür, um nicht Hilfe bei Verbrechen zu geben. Was sie aber nicht unterbinden können, ist, dass Menschen das nutzen, um Verbrechen zu begehen oder zumindest Informationen zu bekommen, um Verbrechen zu verdunkeln, zu verschleiern usw. weniger entdeckt zu werden und so weiter. Die Herausforderung ist einerseits, genau solche Informationen nicht rauszugeben, egal wie schlau jemand fragt. Wenn er sagt, es ist für einen Krimi oder für einen Hollywood-Film, auch dann sollte man vielleicht nicht solche Pläne unterstützen. Gleichzeitig wollen wir aber eben auch, dass wir das Vertrauen in die Modelle behalten können und eben nicht verurteilt werden oder dass das an Behörden geleakt wird, was vielleicht auch noch relativ harmloses Verhalten ist oder wo es keinen konkreten Plan gibt. Nicht wirklich schmuttlich, aber auch eine der wahrscheinlich eher negativen Auswirkungen von KI ist, es kommen jetzt die ersten Klagen aus der Open-Source-Branche, dass die Quantität der Commits, also der Mitarbeit von Programmierern und Programmierinnen an Open-Source-Projekten zwar stark ansteigt, dadurch, dass Coding einfacher wird und immer mehr Menschen zugänglich wird durch Vibe-Coding, durch Cloud-Code und so weiter, Gibt es mehr Leute, die der Open Source Community beitreten und daran mitarbeiten, was prinzipiell gut wäre, wenn es nicht so wäre, dass sich darunter eben auch unheimlich viel AI-Slob befindet. Das heißt, die Qualität des Codes, der committed wird, der wird immer fragwürdiger. Ja, jetzt muss man wahrscheinlich neue Lösungen finden, um Codequalität zu bemessen, zu raten, eventuell auch Commits zurückzuweisen, wenn sie gewisse Maßstäbe nicht treffen. Also wir können mal sagen, was ist das denkbar schlechteste Szenario? KI-Slop kommt immer mehr in solche Repositories rein. KI lernt damit auch auf schlechten Code, wenn man so möchte. Und wird immer schlechter. Es könnte sogar sein, dass Modelle kollabieren und wieder Fähigkeiten verlieren, weil sie auf schlechten Code lernen und dabei immer schlechtere Software schreiben und Projekte kaputt gehen. Das glaube ich wird nicht passieren, aber das wäre so ein bisschen das Doom-Szenario. Was ich eher glaube ist, dass das, was gerade auch bei breiten Modellen funktioniert oder immer besser funktioniert, dass man das auch bei Code verwenden wird, also Reinforcement Learning, wo man einfach sagt, Ich kann ja einfach schauen, welcher Code ist nach so und so vielen Monaten noch in Produktion und wurde oft runtergeladen zum Beispiel. Also ganz einfach gesagt, ich kann bei GitHub ja irgendwie nur die Sachen fürs Training nutzen oder höher bewerten, die auch wirklich oft genutzt worden sind oder die eben viele Sterne, Kommentare, positive Ratings und so weiter haben. Noch besser wäre es wirklich zu wissen, welcher Code ist nach einem Jahr noch in Produktion und wird verwendet. Also wenn du so eine Art Ping hättest, der immer, wenn ein Code angesprochen wird oder läuft oder noch läuft, dann wüsstest du quasi, das ist höchstwahrscheinlich guter Code, wenn er immer noch unverändert läuft. Und alles, was nicht benutzt wird und was wirklich Slop ist, der einfach zwar auf GitHub irgendwo hochgeladen ist oder so, aber eigentlich nicht ausgeführt wird oder mit dem nicht weiter programmiert wird, den versuche ich immer weniger in Modelle laufen zu lassen. Also wir brauchen auch da, so wie bei anderen Trainingsdaten, die im Web stehen, zum Beispiel so eine Art PageRank-Qualitätsalgorithmus, der mir eigentlich Signale gibt, Wo habe ich jetzt guten Code generiert und wo schlechten? Und dann kann Code in Zukunft auch noch besser werden und besser als die meisten Entwickler. Während wenn man aus jeglichem Code lernt, natürlich die Gefahr ist, dass man auch viel schlechten Code, wenn man so möchte, produziert. Entweder weil es schlecht gepromptet ist oder weil das Modell selber noch nicht gut ist. Wobei immer seltener wahrscheinlich der Fehler im Modell liegt. Also es gibt natürlich Halluzinationen, aber... dass die Modelle jetzt wirklich deutlich schlechteren Code schreiben als durchschnittliche Entwickler, halte ich für eher unwahrscheinlich. Dann gibt es noch, auch das ist fälschlicherweise, ich habe hier beim Aufräumen, also man muss sich vorstellen.
Ich glaube, du hast Claude das Aufräumen machen lassen.
Genau, ich habe meinen Claude-Bot hier den Testrello aufräumen lassen. Also der Cerebras IPO hat es irgendwie in die Schmuddelecke geschafft. Warum der dahin gerutscht ist, weiß ich gerade auch nicht. Die Firma Cerebras, eine andere alternative Chip-Plattform, die ihren IPO letztes Jahr im Dezember zurückgezogen hat, versucht jetzt doch einen neuen Anlauf und hat schon vertraulich die Unterlagen eingereicht und könnte sogar innerhalb des zweiten Quartals oder Anfang, also im April eventuell sogar schon einen IPO wagen. Woher jetzt die Eile kommt, kann man nur spekulieren. Tendenziell ist es immer kein gutes Zeichen, würde ich sagen, wenn man da den schnellen Weg beschreitet, statt das gut vorzubereiten. Entweder haben sie Angst vor noch besserer Technologie oder dem Platz in der KI-Blase. Auf jeden Fall soll die Firma jetzt an die Börse gerusht werden. Vielleicht wird sich später noch herausstellen, dass es hier in der Schmuddelecke richtig war. Wobei ich ja eigentlich einen moderater Fan von Cerebras bin. Ob es eine gute Aktie ist, ist eine ganz andere Frage. Aber die Technologie, da ist erstmal eine gewisse Logik dran. Ob es wirtschaftlich das bessere Modell ist, ist eine ganz andere Frage. Ja, zu der Challenge, warum verrutschen die Dinge? Man muss sich vorstellen, Trello ist ein, da sortiert man so Karten, also wer es nicht kennt, das ist so ein Projektmanagement-Software, wo man so Karten, also in unserem Fall sind es hauptsächlich die Artikel, auf die wir uns beziehen oder kleine Notizen oder Bilder, die ordnet man so an. Dann wären die so scrollbar in so einer Column, wie sagt man, in einer Säule. Also eins unter dem anderen. Und jetzt habe ich schon einen vertikalen Screen. Also der ist sozusagen schon hochgedreht und trotzdem sehe ich damit ungefähr ein Viertel des Trello-Boards. Das heißt, um nach ganz unten zu kommen, muss ich sehr weit nach unten scrollen in dem vertikalen Screen. Also normalerweise wären es acht Screen-Höhen, die wir quasi an Nachrichten haben. Und wenn ich jetzt eine nach oben verschieben will, aus der Schmuddel-Ecke raus, dann muss ich ganz lange die Maus ziehen, so ein bisschen. Oder diese komische Mooding-Funktion. Ja, die Mooding-Funktion. Ja, ja, ja, ja. Naja, auf jeden Fall.
Oder weniger Storys?
Ja, oder ich vibe-code mir mal ein besseres. Also was wir eigentlich brauchen, ist ein Trello, wo die verschiedenen Rubriken nebeneinander stehen. Und was trotzdem über nächste Sendung wieder neu funktioniert.
Genau, also wenn ihr das bauen wollt, Spam-Pip-Fol. Ich will damit nichts zu tun haben.
Ich auch nicht.
Also Jan baut das.
Aber auf jeden Fall ist diese vertikale Logik schon eine Herausforderung. Aber jetzt wirklich Schmuddelecke. Der orangene Clown bedroht gerade Netflix. Und zwar wegen der Aufseherin, Member of the Board ist sie, Susan Rice. Susan Rice hat so ein bisschen gewarnt, die Firmen und Medien, die quasi Kniefälle vor Donald Trump haben. begehen und sich dazu sehr unterordnen und sich verbeugen vor der Macht des Präsidenten und sagt, wenn die Demokraten wieder an der Macht sind, dann könnte man das diesen Firmen eventuell übel nehmen. Das hat natürlich schon selber bei ihr eine gewisse Art von Drohcharakter, wenn sie das sagt, aber vielleicht ist es auch das, was ein paar Firmen mal hören müssen, dass politische Meinung sich auch wieder drehen kann und dass die, die irgendwie am lakaienhaftesten agiert haben gegenüber Trump, dann demnächst auch so einzuordnen sind von der nächsten Regierung, falls diese nicht mehr republikanisch ist oder nicht mehr vom Trump-Lager gestellt wird. Dazu gehört auch, dass sie vorher im Kabinett oder im Stab von Joe Biden und Obama bereits im Weißen Haus gearbeitet hatte, bevor sie Aufsichtsrätin, oder das heißt ja nicht Aufsichtsrat im Englischen, aber Member of the Board bei Netflix geworden ist. Und das hat Trump natürlich auf sich setzen lassen und hat ihr direkt mit Konsequenzen gedroht. Beziehungsweise nicht ihr, sondern er hat Netflix aufgefordert, diese Sportmember rauszuschmeißen. Ansonsten würde Netflix die Konsequenzen spüren. Und das ist natürlich wieder ein tiefer Eingriff in freie Verfügungsrechte von Unternehmen. Also der Präsident sollte gar nichts zu entscheiden haben über die Besetzung des Aufsichtsrats oder Aufsichtsgremiums eines US-Unternehmens. Und trotzdem mischt er sich hier ein und beruht sie. Und das Problem ist, dass für Netflix diese Bedrohung natürlich insofern ernst ist, dass sie ja gerade in einem Bieterverfahren um Warner Brothers mit Paramount sind. Paramount ist die Firma von Larry Ellison, die ebenso wie Netflix gerne Warner Brothers kaufen will. Und beide von denen werden für die Übernahme von Warner Brothers auf sozusagen das grüne Licht aus der Wettbewerbsbehörde angewiesen sein. Und die Drohung von Trump ist natürlich insofern ernst zu nehmen, weil er diesen Merger einfach verhindern könnte oder sehr unwahrscheinlich oder deutlich erschweren könnte, indem er die Wettbewerbsbehörde brieft, dass Netflix da nicht zum Zuge kommen soll. Das könnte man definitiv konstruieren. Also du kannst sagen, da entsteht zu viel Studiomacht in einer Firma. Das könntest du genauso bei Paramount machen. Also sollte Larry Ellison gewinnen quasi, Larry Ellison Familie. Aber insofern muss Netflix da wirklich schauen, wen sie sich da gerade als Feind suchen und ich bin gespannt, wie das ausgeht. So oder so ist es natürlich eine Grenzüberschreitung und zeigt auch, dass Trump kein echter Kapitalist oder Businessfreund ist. Er ist vielleicht ein Opportunist und jemand, der selber gerne Business macht, aber... Wer als Präsident quasi ein Unternehmen so bedroht, lenkt, ist am Ende kein guter Kapitalist. Würde ich sagen, zumindest nach meiner Definition. Weil da sollte er sich raushalten. Aber dass irgendwie Checks, Balances, Gewaltenteilung und so weiter überhaupt Trennung von Verantwortlichkeiten jetzt nicht seine Stärke ist, ist vielleicht auch nicht überraschend. Apropos nicht die Stärke und keine Verantwortung und Trennung von Verantwortlichkeiten. Elon Musk ist ja auf X, also wenn er nicht gerade seine rassistischen Theorien wie im letzten Monat runterbetet auf X, geht es ihm ja viel um das Thema Voter Fraud, also die Unterstellung, dass die Demokraten Irgendwie Immigranten als Wahlvolk importieren, dass keine ID required, also dass man sich nicht ausweisen muss beim Wählen teilweise und so weiter und so fort. All das, da versucht er immer einen Wahlbetrug draus zu machen, ohne wirklich gute Beweise dafür zu haben. dass damit wirklich Wahlbetrug geschieht, sondern er unterstellt immer aufgrund gewisser gesetzlicher Vorkehrungen, dass die Möglichkeit für Fraud eröffnet. Dass es aber wirklich Election Fraud gab, wurde bisher nicht nur nicht bewiesen, sondern oft widerlegt, da wo es konkret vorgeworfen wurde. Wo jetzt aber tatsächlich eine Einordnung als Verstoß gegen das Wahlrecht passiert, ist bei Elon Musk's Super PAC. Und zwar soll der bei der Einmischung in die Wahlen in Georgia gegen das Wahlrecht verstoßen haben und damit, wenn man so möchte, im übertragenen Sinn Wahlbetrug begangen haben. Und zwar, weil man den Menschen vorausgefüllte Anträge auf Briefwahl zugestellt hat. Also damit auch, ich sage mal im Sinne der Wählermobilisierung unterstelle ich mal, hat man Leuten gesagt, ihr könnt auch von zu Hause wählen, wenn ihr nicht ins Wahlbüro gehen möchtet. Und dafür senden wir euch schon mal den Bestellzettel für die Briefwahl zu. Und der war vorausgefüllt. Und das ist laut Gesetz nicht erlaubt. Also du darfst quasi nicht den Leuten schon die Stimme in den Mund legen, wenn man so möchte. Und damit hat Elon Musk America-Pack gegen das Wahlrecht im Bundesstaat Georgia verstoßen und damit genau das getan, was er regelmäßig seinen politischen Gegnern vorwirft. Im Englischen sagt man, every accusation is a confession. Also jeder Vorwurf, den er anderen macht, ist in der Regel und es trifft auf ihn wirklich in besonderem Maße zu eigentlichen Eingeständnissen oder Vorwürfen. im juristischen Sinne ein Geständnis. Oder im Deutschen würde man sagen, was ich selber denke und tue, traue ich auch den anderen zu. Und auch das kann man auf viele Äußerungen von Elon Musk im politischen Kontext sagen. Dann haben wir noch mal eine Erweiterung. Weil ich letztes Mal so ein bisschen rumgestampelt habe, also da ging es um die Fahrer, was ist eigentlich der Unterschied zwischen Waymo und Tesla? Also warum ist das bei den einen okay, dass es menschliche Monitors gibt und bei den anderen nicht? Und wir haben versucht zu erklären, also bei Waymo greifen in dem Fall, wo das Auto nicht weiterkommt, Menschen, die in den Philippinen sitzen, das war sozusagen ein Hauptkritikpunkt, ein und helfen dem Auto weiter. Da hat jetzt in offiziellen Unterlagen Waymo nochmal klargestellt, dass die nicht mal tatsächlich in das Fahren eingreifen, sondern sie geben dem Auto Hinweise. Also das Auto ist trotzdem auf Autopilot in dem Fall. Aber was diese Menschen können, ist nicht das Auto steuern, aber sie können sagen, ja die Ampel ist rot, fahr trotzdem. Und dann trifft am Ende aber immer noch das Auto die Entscheidung, sagt Waymo zumindest, das ist die Aussage von Waymo, Also es sind, wenn man so möchte, so Flöre oder Hilfegeber im Prozess. Wenn das Auto mal nicht weiter weiß, den Text vergessen hat, dann hat es quasi so einen Telefonjoker in den Philippinen, die es anrufen kann. Die sagen dann zum Beispiel, dass da ist kein Hindernis oder da ist ein Hindernis, das du umfahren musst. Oder lass den Gast hier lieber aussteigen, hier geht es nicht weiter oder, oder, oder. Das ist quasi die Zusammenarbeit zwischen Mensch und Maschine bei Waymo. Und wir haben erklärt, dass das eigentlich genau das ist, was man eigentlich auch möchte als Mensch, um sicher zu sein. Und wir waren uns da nicht 100% sicher, deswegen erwähne ich das jetzt nochmal, dass das jetzt ausfällt. öffentlichen Unterlagen genauso hervorgeht oder sogar eben noch krasser, dass die Menschen nicht mal eingreifen aus den Philippinen. Das heißt, dass Latenz auch gar nicht so ein großes Problem ist, sondern dass sie dem Auto wirklich nur Hinweise geben, wie es die derzeitige Situation handeln muss. Und dann funktioniert das Auto quasi wie so ein Chatbot, wie man das sich vorstellen kann. Also es nutzt diesen Hinweis als weiteres Signal, bezieht das in die Entscheidung ein und überlegt dann, was es damit tut. Bei Tesla wiederum ist es insofern anders. Einerseits, dass da teilweise ja ganz am Anfang Autos hinterher gefahren sind. Also der Fernoperator war tatsächlich Fernoperator, sondern ist im Auto in sogenannten Monitor-Car hinterher gefahren. Das ist eine ganz lange Spezielle. Insofern waren diese Menschen auch immer in den USA beschäftigt. Also Tesla brüstet sich so ein bisschen damit, dass ihre Fernkontrolleure in den USA beschäftigt sind. Das war aber natürlich besonders erforderlich, als sie direkt hinter den Autos hinterher gefahren sind. Inzwischen sitzen sie in einem Hauptquartier in der Bay Area und tun das in so einer Mischung zwischen Überwachung. Aber das ist wie gesagt eine sehr viel intensivere Überwachung als bei Waymo. Und ansonsten hält Tesla sich aber sehr bedeckt, inwiefern die wirklich dann eingreifen. Und das wiederum spricht auch schon fast für sich, dass man sich da nicht so klar äußert und so transparent ist wie Waymo. Eine weitere Ergänzung zu den vorherigen Folgen, da haben wir schon darüber geredet, dass Claude gerade, oder dass ein Shopping gerade mehr oder weniger bedroht wird vom ehemaligen Verteidigungs-, jetzt Kriegsministerium der USA, dass Claude nicht bereit war, gewisse Guardrails aufzugeben, wenn die Regierung mit der Software arbeitet. Also sie wollten die Überwachung von Amerikanern verhindern und den autonomen Einsatz um Menschen umzubringen zum Beispiel. Das waren sozusagen Sachen, die Anthropic nicht deaktivieren wollte, um der Regierung weitreichende Rechte zu geben. Und ich hatte so ein bisschen gemutmaßt, dass ich nicht gehört habe, dass Google, OpenAI oder XAI dem widersprochen hätten. Sonst hätten wir das bestimmt in der Presse auch gelesen. Und daraus war ich mir aber nicht ganz so sicher, weil es natürlich auch eine schwere Behauptung ist. Deswegen habe ich es im Konjunktiv geäußert. Und jetzt schreibt Axios, die aus Regierungskreisen immer sehr gut informiert sind, in der Regel, dass genau das, also ich hätte das mit mehr Überzeugung tatsächlich einsprechen können, weil es tatsächlich so ist, also sagt Axios zumindest, dass Google und OpenAI mit dem Pentagon zusammenarbeiten und diese Beschränkungen dabei nicht haben. Und Excel schreibt außerdem, dass XAI, also ihre Maskenfirma inzwischen, den Vertrag bekommen hat mit dem Pentagon, um klassifizierte, also top secret würde man sagen, geheime Dokumente zu bearbeiten. Und auch da gibt es diese unnötigen Guardrails oder Safeguards, also Sicherheitsvorkehrungen nicht. Und jetzt arbeitet das Pentagon unter anderem auch mit GROK, um geheime Unterlagen zu sichten und auszuwerten. Und außerdem ist, das steht nicht in dem Artikel, aber in einem anderen, glaube ich, ist Dario Amode gerade ins Kriegsministerium eingeladen, um das alles mit P-Taxes persönlich zu besprechen. Mal sehen, wie das ausgeht. Das ist ein Termin, der wahrscheinlich so spannend ist wie eine proktologische Untersuchung. Ich beneide ihn wenig drum. Wir haben auch darüber berichtet. dass die Trump-Regierung inzwischen wieder NGOs in Europa unterstützt. Leider nicht die, die für ziviles Engagement und einen Zusammenhalt der Gesellschaft eintreten, sondern man unterstützt die mit US-Regierungsgeldern, unterstützt man magerfreundliche NGOs in Europa. So klar muss man es eigentlich sagen. Also der US-Steuerzahler zahlt jetzt dafür, dass Trump seine Ideologie und die von Steve Bannon in Europa ausbreitet und auch hier rechte Parteien versucht an die Macht zu heben und so weiter und so fort. Und gleichzeitig berichtet Follow the Money darüber, wir packen den Link auch in die Shownotes, wie man zunehmend die eher in der Zivilgesellschaft verankerten NGOs bedroht und versucht unschädlich zu machen. Also zum Beispiel lädt man die NGOs, die Vertretung in den USA und Europa haben, sagen wir mal Amnesty International nur als Beispiel, ich weiß nicht, ob es darum geht, aber es wird keine konkret, es werden welche genannt, aber jetzt in dem Zusammenhang nicht konkret eine, aber es könnte zum Beispiel sowas wie Amnesty, was weltweit vertreten ist, sein und die lädt man quasi vor den US-Kongress vor und befragt sie peinlich dort, was für eine NGO natürlich insofern immer ein Problem ist, dass allein der Fakt, dass irgendwie im Fernsehen gezeigt wird, wie du dich sondern eventuell sehr kritischen Fragen von irgendwelchen Senatoren oder Congressmen und Women stellen muss, die Möglichkeit, neues Geld einzusammeln, für die Unterstützung der NGO eher schwer macht, weil natürlich in der Regel ein schlechtes Licht gestellt wird. Das heißt, man versucht quasi die Fundraising-Möglichkeiten der NGOs zu sabotieren, indem man sie in den USA peinlich befragt. Außerdem wird hier ebenfalls zum Beispiel von der deutschen NGO berichtet, die in die US-Botschaft eingeladen wurde. Sie hat, wenn ich das richtig verfolge, darauf verzichtet auf dieses Meeting, was wahrscheinlich ähnlich nett gewesen wäre wie das von Dario Amode im Kriegsministerium. Auch interessant, dass man wohl unseren Digitalminister und das Digitalministerium gebrieft hat, mehr oder weniger, um sie davon zu überzeugen, es geht hier immer weiter. um den DMA und DSA vor allen Dingen, also dass Europa aus Sicht der Trump-Regierung die US-Tech-Konzerne viel zu sehr gängelt und reguliert. Und um das zu verhindern, tut man das quasi alles. Und das Ziel sind quasi NGOs, die sich für digitale Schutzrechte, Bürgerrechte und so weiter einsetzen. Und unter anderem versucht man auch auf das Digitalministerium einzuwirken. Und das äußert sich laut des Artikels auch schon, sagen wir mal, differenziert da zum DMA inzwischen und scheint gar nicht mehr so überzeugt davon zu sein, dass das schlau ist, obwohl es eigentlich sehr nachvollziehbar sein sollte, warum DMA und DSA, Digital Markets Act, Digital Services Act, die der Regulierung von übermächtigen Marktplätzen und Social Media dienen. Also eigentlich sollte das nicht so fraglich sein. sein. Wenn wir da in Zukunft kritische Töne aus dem deutschen Kabinett hören, sollte uns klar sein, dass das eventuell auch mit Druck aus dem Weißen Haus geinfluenzt wurde.
Und es geht noch schlimmer.
Ab zu das Letzte. Ja, es ist immer schwer auszusuchen, was jetzt wirklich die schlimmste News der Woche gerade ist. Aber wir wissen ja, dass CZ oder auch Changpeng Zhao, der ehemalige CEO und Gründer von Binance, gerade sich darum bewirbt, aus dem Knast entlassen zu worden. Er saß wegen Geldwäsche-Verdacht in den USA ein oder nicht, weil er überführt wurde, glaube ich, der Beihilfe zur Geldwäsche zumindest mittels der Binance-Krypto-Plattform und bewirbt sich gerade um ein Pardon, eine Begnadigung. Und gleichzeitig wird jetzt bekannt, schreibt die New York Times, dass Binance-Angestellte wohl 1,7 Milliarden an Kryptowährungen gefunden haben. die an iranische Entities, steht hier, also Körperschaften, weitergeleitet wurden, die wiederum Verbindungen zu Terroristengruppen haben und damit relativ klar globale Sanktionen unterwandern würden. Jetzt gibt es natürlich auch bei Binance anständige Menschen, die das sofort reported haben, so wie das ja ihr Job ist als Security- und Compliance-Menschen. Und was Binance dann wiederum gemacht hat, spricht für weniger Rechtsschaffenheit. Sie haben nämlich mindestens vier dieser Menschen in der relativ kurzen Zeit darauf entlassen. Also das war sozusagen das Geschenk dafür, dass du deinen Job machst in der Anti-Money-Laundering- oder Know-Your-Customer-Abteilung von Binance, wenn du da wirklich was geflaggt hast, was auffällig ist. Der einzige Grund, warum wir alle diese furchtbar komplizierten Formulare ausfüllen müssen regelmäßig, wenn wir uns bei irgendeiner Finanzplattform anmelden und warum jedes Investment in eine Firma inzwischen so kompliziert ist, ist, um sicherzustellen, dass man nicht mit irgendeiner sanktionierten Partei, irgendeinem ausländischen Diktator zusammenarbeitet. Deswegen müssen wir das tun. Aber, wenn bei Binance 1,7 Milliarden in den Iran verschoben werden, eventuell zu terrorismusnahen Quellen, dann werden dafür die Leute rausgeschmissen, die genau dafür eingestellt wurden. Man kann nur zwei Sachen unterstellen. Entweder, oder vielleicht drei mögliche Erklärungen. Und vielleicht gibt es weitere, aber ich sage mal, die drei wahrscheinlichsten aus meiner Sicht sind Das Erste, man hat aktiv daran mitgearbeitet und das würde ich hoffentlich ausschließen, dass jetzt auch Binance kein Interesse daran hat, dass Terrorismus finanziert wird. Das ist natürlich auch eine Möglichkeit, die man zumindest nicht ausschließen kann. Das Zweite ist, es ist einfach wirtschaftlich opportun. 1,7 Milliarden verschieben sind auch fies, wenn man da irgendwie von 0,3% oder so ausgeht, dann ist das immer noch ein zweistelliger Millionenbetrag, den man da verdient hat, nur damit dieses Geld einmal über die Plattform zu verschieben. Das heißt, es gibt einen hohen Anreiz, rein finanziell da 1,7 Milliarden durchzuwinken. Wenn man, wie gesagt, zweistellig Millionen damit verdient, da kann man schon ein paar Leute für rausschmeißen. Und das Dritte ist, man möchte vielleicht auch einfach das eigene Problem verdunkeln. Das kann man natürlich auch so sehen, dass sie selber quasi Angst davor hatten, dass das öffentlich wird und dachten, bevor wir jetzt noch weiter ins Rampenlicht kommen mit so einer Transaktion, selbst wenn wir die richtig behandeln, wir können gerade dieses Image-Crypto, ist für Verbrecher, Terroristen da, nicht gebrauchen und deswegen verdunkeln wir. Uns geht es gar nicht um das Geld, wir wollen es auch gar nicht unterstützen, aber wenn wir jetzt das Richtige tun, dann scheuchen wir Hunde auf und die bringen die Regulatoren wieder auf. Und alles davon ist verwerflich. Man kann natürlich sagen, dass aktive Mitarbeitenden eine besondere Schuld sind, aber so oder so ist es falsch. Egal was die Begründung ist, so oder so ist es falsch, wenn man nicht seine Arbeit macht und das flaggt und an die entsprechenden Behörden reportet. Aber was man hier sagen kann, ist, dass Binance genau das nicht getan hat. Also das, was die Aufgabe ist, um Geldwäsche, Terrorismusfinanzierung, Durchsetzung von Sanktionen zu verhindern, hat Biden es nicht gemacht. Das betrifft hier den Iran, das kann genauso irgendwie die Hamas betreffen oder die Hezbollah, das können irgendwie russische Oligarchen sein, die damit Geld umherschütten und irgendwie Leute, die Anschläge begehen, im Rest der Welt finanzieren und so weiter und so fort. Und das zeigt wahrscheinlich, dass CZ vollkommen zu Recht im Knast sitzt und auch dort so bleiben sollte. Und jede andere Kryptobörse, die das nicht besser hinbekommt und ihr EML und ihre Regulierungsauflagen nicht erfüllt, sollte ähnlich behandelt werden. Natürlich.
Wie hat es denn Europas größter Podcaster hier reingeschafft?
Und dann noch in die Schmuddelecke. Und zwar ist das auch ein Nachklapp. Ich hatte letztes Mal kurz über mein Stockholm-Syndrom geredet, dass ich aufgrund der vielen Hörerfragen mir doch den Christian Angermeyer-Podcast nochmal anhören musste bei OMR. Und dann, als wir darüber gesprochen haben, hatte ich ihn aber erst zu 80% durchgehört. Und die wahren Goldstücke kommen natürlich erst ganz am Ende. Und zwar also einerseits, dass er erzählt, dass er eigentlich nur irgendwie Nahrungsergänzungsmittel und Drogen verkaufen will mit seinen Olympic Games oder seinen Doping Games. Und das andere, was ich dann gehört habe, ist, dass er wirklich in Stephen Bartlett's Firma, Stephen.com, investiert. Also Stephen Bartlett ist der, wenn man so möchte, Mitgründer oder sogar Originalgründer der Social Chain Group, die dann später zur Social Chain AG wurde, wo dann Georg Kofler und Vanya Oberhofen, wie sie alle heißen, da ihre Firma reingemerged haben. Und bisher, also ich weiß noch, wie wir darüber gemutmaßt haben, dass Steve Bartlett da bei dem ganzen IPO nicht so happy aussah und als gäbe es da irgendein Zerwürfnis mit den deutschen Akteuren der Social Chain AG. Kurz darauf hat er die Firma auch verlassen und dann dachte er dann, Vielleicht haben die ihm auch die Firma nur abgenommen und er hatte wirklich daran geglaubt. Und dann, wir wissen ja, die Social Chain AG ist am Ende insolvent gegangen, nachdem wir mehrmals davor gewarnt haben. Und ich dachte vielleicht, also man muss schon mal sagen, er ist wirklich ein talentierter Podcaster. Er kriegt top Leute vor die Kamera, er kann die gut befragen, er kommt dabei gut rüber, produziert das super aufwendig, super professionell. Und er baut jetzt gerade so ein größeres Studio mit anderen Kreaturen, die natürlich den Vorteil haben, dass er ihnen alle Gäste besorgen kann. Also es ist natürlich insofern ein bisschen einfacher, in dem Studio zu starten, weil du Top-Vermarktung, du hast deinen AG1-Vertrag direkt schon mit abgeschlossen, quasi wenn du startest. Und Stephen Bartlett hat natürlich inzwischen das Adressbuch, um dir auch mal ein paar Top-Leute vor die Kamera zu holen, wenn du da auch einen Interview-Podcast startest. Das ist so ein bisschen seine Vision. Dann will er am Ende wieder so Creator-Brands und sowas bauen. Also ein bisschen auch wieder die alte Social-Chain-Story. Aber bisher habe ich immer noch in Erwägung gezogen, dass er vielleicht auch so ein bisschen ausgetrickst wurde bei dieser Social-Chain-Sache. Aber jetzt berichtet hier EU-Startups, dass Christian Angermeyers Apeiron, das ist News aus letztem Oktober, also das ist mir untergegangen, sonst hätten wir wahrscheinlich auch schon früher darüber geredet, da irgendwie ein achtstelliges Investment wohl reingemacht hat.
Also das wäre ja die große Red Flag. Aber was ich bemerkenswert finde, dass dann Slow Ventures von Sam Lassen auch investiert ist. Und der ist ja jetzt nicht so derjenige, dem man irgendwie nachsagen würde, dass er nicht irgendwie sich genau überlegt, wo er investiert.
Aber wer ist Sam Lassen? Ist das hier von deinem Hustle-Porn-Podcast?
Nein, das ist der Ehemann von der Information-Dame. Das ist der von Less and More, More and Less Podcast.
Achso.
Der ehemalige Meta-Mitarbeiter.
Ja, aber sorry, das ist auch the most stupid guy in Silicon Valley. Findest du? Jedes Mal, wenn ich den höre, denke ich so, ey, was für ein... Das ist so ein... Das fällt jetzt niemandem zu nahe. Ich würde sagen, so ein typischer digitaler Berufsoptimist, der so alle... Unbegrenzte... Begeisterungsfähigkeit für jeden Scheiß. Überhaupt kein kritisches Judgment. Sag mir mal was, wo der so ein bisschen dran gekratzt hat an welcher Story. Der ist ja kein Journalist, sondern der ultimative PR-Typ. Der kann jede Story dreimal geiler machen, wenn er sie in seinem Kopf durchspinnt. Aber die Fähigkeit, irgendwas mal zu hinterfragen, hat er überhaupt nicht. Von daher wundert mich das überhaupt nicht. Man könnte sagen, das ist der Brother from another Mother von Christian Angermeier.
Echt?
Oh, wow. Der hat ja auch nur Pech. Der ist halt selber immer noch, der glaubt halt an die ganzen Firmen. Dann ist er immer enttäuscht wahrscheinlich, wenn die dann 80 bis 90 Prozent an der Börse verlieren. Das passiert halt. Wenn man viel unternimmt, viel macht, dann geht auch viel schief. Wie auch immer. Also nee, wäre jetzt kein Gegenbeispiel für mich. Also auf jeden Fall würde ich inzwischen, also entweder ist er wirklich richtig, richtig dumm nach Georg Kofler auch noch auf Angermeyer reinzufallen und sich die Firma von dem hochbumsen zu lassen. Oder er ist wirklich der abgezockteste, um es mal vorsichtig zu sagen, in dem ganzen Spiel. Und nachdem er mit Social Chain schon mal die ganze Story durchgespielt hat, versucht er jetzt mit Steven.com irgendwie nochmal eine Firma an die Börse zu bringen. Bin gespannt, wie erfolgreich so ein Podcast-Business am Ende wirklich sein wird. Ich glaube, der Ansatz ist hier tatsächlich sogar vielleicht ein bisschen solider als der von The Social Chain. Also mit einem Podcast-Studio und ein paar Creator-Brands, ich glaube schon, dass man eine größere Firma damit bauen kann. Aber wenn ich mir dann, wie gesagt, die Investoren wieder anschaue, du musst ja auch fragen, die eine Frage, die du dir immer stellen musst ist, warum hat er dieses Geld genommen? Wenn das ein geiles Modell ist, also Creator Economy, es gab eine Zeit, wo selbst Andreessen Horwitz an diese Creator Economy geglaubt hat, wo sie ihr eigenes, hier future.com oder wie hieß ihre, sie hatten nochmal so ihr eigenes Medium gebaut, die ganzen Podcasts und so. Es gibt ja Leute, die darauf spezialisiert sind. Und wenn kein, in Anführungsstrichen, vernünftiger VC hier investiert, das ist das Hauptsignal. Warum musst du das Geld irgendwie von diesem Slow Deppen und von Christian Angermeier nehmen? Der gleiche Grund, warum bei dir alle Lichter angehen sollte, wenn Neura Robotics sich seine Valuation von Tether machen lässt. Warum nimmst du nicht irgendeinen Top VC aus den Nordics, aus den USA, meinetwegen aus China, aus Hongkong oder aus dem Käufer. Wenn du das Geld von Tether nehmen musst, ist das meiner Meinung nach ein sehr, sehr, sehr schlechtes Signal. Für das gleiche Signal würde ich... Aber auf jeden Fall machen wir uns da mal einen Google Alert und mein Cloudbot bleibt da mal dran. Top Überleitung. Kleine Schmunzel-Story. Ob die jetzt wirklich so 100% wahr ist, wie die gerade aufgebauscht wird, ist eine andere Frage. Auf X geht sie auf jeden Fall gerade viral. Und zwar gibt es eine X-Userin namens atsummeru0. Die Folgendes postet, sagt man, glaube ich, auf X. Wenn man Cloud nutzt, sei es zum Coden oder eben OpenClaw, dann macht man oft so einen sogenannten Planning-Mode. Also damit nichts schief geht, also du sagst nicht, baue mir mal eine Software, die meinen Posteingang sortiert, weil du Angst hast, es könnte was schief gehen. Deswegen sagst du, wie würde eine Software aussehen, die meinen Posteingang effizienter sortiert, mach mal einen Vorschlag. Das ist der sogenannte Planning-Mode. Das ist nicht irgendwie ein Schalter, beziehungsweise das wird mehr und mehr als Feature gebaut, aber das machst du erstmal als Prompt, dass du sagst, sag mir erstmal, was du tun möchtest und dann gebe ich dir das Go. So, das hat sie offenbar so getan und dann hat er was vorgeschlagen und er hat gesagt, Nuclear Option, trash everything in inbox older than February 15 that isn't already in my keep list. Und sie schreibt, don't do that. Und dann plant er weiter und sagt, stop, don't do anything. Sie kriegt Panik und sagt dann quasi, am Ende musste sie zu ihrem Mac Mini rennen, als wenn sie eine Zeitbombe entschärfen müsste, um OpenClaw oder Claude zu stoppen dabei. Und Das ist jetzt eine lustige Story, die man sich vorstellen kann. Leute wenden das an, obwohl sie es nicht richtig gut können. Oder OpenClaw macht, je nachdem mit welchem Modell man es verbindet, eventuell auch noch Fehler dabei. Das, was jetzt hier aber so ein bisschen dem Ganzen, entweder je nachdem, wie man so als Mensch aufgestellt ist, den Humor erst hinzufügt oder einem das Lachen im Hals stecken bleibt, ist, dass diese Userin Summer Yu, zumindest dem Anschein nach, und sie ist verifiziert bei X, wobei das ja wiederum nichts heißt, Director of Alignment at MSL ist, also den Meta KI Labs oder Super Intelligence Labs, glaube ich. Und wenn sie quasi am Alignment von KI lernt und da sogar, wenn Director ist jetzt nicht der oberste Chef, aber schon eine relativ hohe Position, wenn dies quasi nicht schafft, da ihren Bot im Griff zu halten und eine Umgebung zu schaffen, wo sie nicht direkt auf den echten Posteingang zugreifen kann, dann... Sollte man sich sagen, um das Alignment beim Meta vielleicht Sorgen machen. Oder dass man damals vielleicht ein bisschen sehr optimistisch geheiert hat, als man sich seine Teams zusammen gekauft hat am Personalmarkt. Und bei lustigen AI-Gun-Rogue-Stories, die gute humorige News dieser Woche, wem das noch nicht lustig genug war, Es gab einen kleinen Nerd, der sich einen DJI-Haus-Saugroboter gekauft hat. Also sowas wie so ein Roomba, der einfach deinen Boden sauber macht. Da gibt es ein relativ teures Modell von DJI, das Romo heißt. Und dieser Nerd-User hat sich gewünscht, das mit seiner Xbox-Fernbedienung, mit seinem Xbox-Controller bedienen zu können. Klar, das ist ja genau, was man als erstes machen möchte, wenn man sich einen Saugroboter kauft.
Warum?
Also wirklich, das ist eine geniale Idee, dass man das noch nicht kaufen kann. Aber why would you do that? Der ganze Sinn ist ja, dass es ein Roboter ist und die Arbeit selbstständig verrichtet.
Ja, aber ich stelle mir das super vor. Ich stelle mir vor, ich liege auf dem Sofa, ich schaue etwas und anstatt Second Screen zu machen, sitze ich da mit meinem Remote Control und fahre den Roboter.
Aber pass auf, dann habe ich eine kleine Geschichte für dich. Und zwar, du stehst ja immer noch aufgrund deiner Vergangenheit der Automobilbranche relativ nah. Bau doch mal ein selbstfahrendes Auto, was man mit einer Fernbedienung steuern kann. Also du sitzt auf dem Fahrersitz, es hat kein Lenkrad mehr, aber du sitzt auf dem Fahrersitz und hast einen Xbox-Controller in der Hand. Was für ein geiles Tech-Produkt wäre das? Oder noch besser, du machst den Tesla-Mode, das ist, du fährst hinter dem Auto mit deiner Fernbedienung, steuerst das Auto vor dir und das ist dann eigentlich Real-Life Mario Kart. Dann wird es wirklich lustig. Also du nimmst dir so einen alten Tesla, den du mit der Fernbedienung steuerst, Und damit fährst du mal durch die, keine Ahnung, roten Baumchaussee in Hamburg, ordentlich mit 55 durch und steuerst den dabei mit einem Controller. Und neben dir fährt irgendwie Malte oder dein bester Kumpel und der darf auch fernsteigen so. Wenn dir der Roomba gefällt, wie der mit dem Controller war, wirst du das mit dem Akku finden. Aber zur Geschichte. Das war noch nicht die Story. Ihm ist das gelungen. So viel mal schon vorhergesagt. Er hat es wirklich geschafft. Er hat das natürlich mit Cloud auch programmieren lassen. hat versucht, den API-Zugang zu reverse-engineeren mithilfe von Cloud. Cloud hat das geschafft, weil es ein guter Programmierer ist, wenn man so möchte. Und womit er nicht gerechnet hat, ist, dass er außerdem 7000 weitere Modelle dieses Roombas damit ebenfalls angesteuert hat, weil die Authentifizierung... von DJI eben so funktioniert, dass der gleiche Token oder Key, Token ist glaube ich das richtige Wort, für ganz viele Devices funktioniert hat. Und so konnte er auf einmal... Die Roboter saugen ja nicht nur. Die nehmen die Umgebung wahr. Die haben Grundrisse der Wohnungen, haben Kameras, können eventuell sehen, welche Katze welcher Hund da gerade bei jemandem in Hongkong oder Bielefeld rumschwirrt. Und naja, DJI hat das nach zwei Tagen gefixt, die Security-Lücke, aber Man möchte nicht wissen, welche Internet-of-Things-Devices noch so ausgenutzt werden können, wenn man das sieht. So, aber das sollte die gute News des Tages sein. Ich hoffe, es hat zumindest zur Erheiterung beigetragen. Und alles andere besprechen wir dann am Samstag in der Woche.
Hat einen schönen Mittwoch. Bis dann.
Tschüss. Ciao, ciao.
Der Doppelgänger Tech Talk Podcast ist ein Projekt von Philipp Glöckner und Philipp Glöckler, recherchiert von uns und produziert von Jan aus dem Off.
Weiter diskutieren kannst du in unserer Doppelgänger Discord Community.
Fragen und Anfragen kannst du uns gerne per Mail an podcast.doppelgänger.io schicken. Unsere aktuellen Werbepartner findest du in unseren Shownotes. Vielen Dank für deine Zeit und bis Samstag.