Doppelgänger Folge #354 vom 17. Mai 2024

WIR SPÜREN DEN ALGO-RHYTHMUS

Jetzt erfahren, was der Sommerhit des Jahres wird! Außerdem versucht Pip seine Keynote "zusammenzufassen".


Werbung: Komm am Donnerstag, 27. Juni, um 12 Uhr zum Spreespeicher im Herzen von Berlin. Das Programm & die Anmeldung für das Produkt-Netzwerk-Event von Pendo findest du unter de.pendo.io/podcast.


Philipp Glöckler und Philipp Klöckner sprechen heute über:

00:00:00 Intro

00:03:15 Sommerhit 2024

00:05:45 „Zusammenfassung“ von Pips Keynote

00:54:45 OpenAI Desktop App

01:06:00 News 


Shownotes:

Pips AI Keynote auf der OMR 2024: Youtube

BASF Gasverbrauch wie Schweiz: NZZ


📧 Abonniere jetzt den Doppelgänger Newsletter auf doppelgaenger.io/news und erhalte jeden Montag die relevanten News der Woche 📧

👋 Aktuelle Werbepartner des Doppelgänger Tech Talk Podcasts, unser Sheet und der Disclaimer 👋

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger Tech Talk Podcast Folge 354 am 18. Mai 2024. Ich bin Philipp Glöckner und telefoniere zweimal die Woche mit Philipp Glöckner.
Und Pip, ich muss dich fragen, wie fühlt es sich an, auf YouTube zu trenden? Ich war auf jeden Fall sehr überrascht. Platz 13 war, glaube ich, das Beste in den YouTube Trends. Also ich habe keine Ahnung von YouTube, hätte ich gesagt, aber mir wurde erklärt, dass in den Trends zu sein auf Platz 13 einigermaßen gut ist. Ich war ja etwas traurig, dass die Keynote erst eine Woche später aus technischen Gründen rauskam.
Etwas traurig, du hast rumgejammert wie so ein... fünfjähriges Kind, dass man irgendwie den Schnuller weggenommen hat oder sowas. Das war schon grenzwertig. Ich war kurz davor, was zu sagen.
Für den Content ist es gut. Wenn dich halt ständig Leute fragen, wann geht das online? Und ich dachte, das wird ein signifikantes Handicap werden, aber das scheint nicht der Fall. Vielleicht hat es sogar die FOMO erhöht. Ich glaube, wenn das hier rauskommt, wird das so bei 100.000 Views auf YouTube sein. Also es geht um die Kino, die ich auf der OMR gehalten habe. Jan packt die bestimmt nochmal in die Shownotes oder man kann einfach doppelgänger.io.ai eingeben, dann kommt man dahin. Ja, und überraschenderweise, also ich, meine Erwartung wäre gewesen, dass ich sozusagen mit einem Handicap-Start mich so bestenfalls übers Jahr an die Views so der offiziellen Keynote oder so ranrobben kann über lange Zeit. Also ich glaube, die ist so bei 40.000, 50.000 Views. Aber aus irgendeinem Grund ist das deutlich schneller gestartet als gedacht. Und es gibt Leute, die sagen, das ist halt die eigene Reichweite, aber das kann das nicht so richtig erklären, weil ich habe auf keinem sozialen Netzwerk auch nur annähernd so viele deutsche Follower. Also auf LinkedIn habe ich 50.000, aber davon sind, weiß nicht, vielleicht 40% deutsch, würde ich schätzen. Das heißt, das kann das zumindest nicht alleine erklären. Twitter noch viel weniger und Instagram weniger. Vielen Dank für alle, die es geshared haben. Das hat definitiv geholfen. Auch die größeren Accounts mit viel Reichweite, die das gemacht haben. Unter anderem Finanzfluss, Aktiengramm, Christian Ruhl und so weiter. Das hat sicherlich stark dazu beigetragen. Und den Rest hat tatsächlich der YouTube-Algorithmus, glaube ich, besorgt. Ich spüre den Algorithmus, würde ich sagen. Wollen wir mal einen AI-Song machen, der heißt, ich spüre den Algorithmus mit unseren Stimmen? Welches Genre? Rap oder eher so Elektro?
Schlager.
Auf jeden Fall Schlager, stimmt. Da brauchen wir noch geile Schlagernamen.
Ich könnte mir schon vorstellen, dass ich spüre den Algorithmus, dass das ein Schlager-Hit werden kann.
Ich kann mir das richtig gut vorstellen. Und Rhythmus aber auch mit R-H-Y geschrieben, auf jeden Fall. Achso, und das ist ja lustig, weil Rhythmus, ich spüre den Rhythmus und Rhythmus ist ja, jetzt verstehe ich das erst. Ja, lassen wir machen.
Das ist der nächste Hit.
Ja, setz dich ins Studio, Jan. Achso, den einzigen Vortrag, den ich noch nicht... Also vor mir ist noch Scott Galloway. Natürlich so ein englischer Audience, eigene Followerschaft und so viel größer. Und Robert Habeck habe ich zwar überholt, aber das Interview von Markus Lanz und Robert Habeck, das hat noch 156k Views. Da werde ich wahrscheinlich nicht hinkommen. Ist schon krass, was Markus Lanz für eine YouTube-Bombe ist, oder? Der hat letztes Mal auch schon so performt.
Er ist halt einfach ein Moderator und kein Podcaster.
Der ist Journalist, wurde da gesagt. Nicht Moderator. Ah ja, auch Moderator natürlich. Aber wirklich eine sehr loyale Zuschauerschaft, offenbar.
Was denkst du, wo du noch rauskommen kannst? 100, 150?
Ich glaube, bei 100 wird es schon so sehr sich einem Dach annähern, asymptotisch.
Also bei 150 müsste doch auch langsam irgendwie Lanz oder irgendeine TV-Sendung anfragen, ob du dann ein wirklicher KI-Experte ins Studio kommst.
Das brauche ich nicht, danke. Ich mache das gerne weiter auf YouTube einfach.
Magst du nochmal kurz zusammenfassen? Also ich war live dabei, ich war in der Audience, habe mir angehört, was du gesagt hast. Vielen Dank nochmal für die Liebeserklärung am Anfang, als du unser kleines Cover da hingesetzt hast. Da war ich so verliebt, dass ich eigentlich ab dann nicht mehr zuhören konnte. Deswegen gib mir nochmal kurz eine Zusammenfassung. Was... waren die großen Themen. Was ist der Teaser? Warum sollte ich mir jetzt nochmal dieses 40-minütige Video auf YouTube anschauen?
Also jetzt haben sie es schon angeschaut. Also was habe ich versucht eigentlich zu machen mit der Keynote? Ich dachte, es ist fair, weil ich ja so ein paar Annahmen getroffen habe letztes Jahr. Und das ist so ein, ich glaube, ein Stadium war, wo das alles noch sehr unentschieden war mit der AI. Und das ist bis heute eigentlich. Aber ich wollte definitiv so ein paar Rückblenden machen und schauen, wie gut ist das gealtert, was ich letztes Jahr gesagt habe. Dann wollte ich natürlich auch Dinge, die ich einfach nicht gesehen habe letztes Jahr, erwähnen. Komme ich gleich drauf. Und irgendwie ein paar neue Annahmen treffen oder, ich mag dieses Wort Predictions nicht so, aber so irgendwie Dinge, die man nächstes Jahr dann gut bewerten kann, ob das einigermaßen in die Richtung ging. Und den Rest erzähle ich gleich. Ich gehe einfach mal so chronologisch. Was schon, das hat interessanterweise Scott Galloway, der ruft ja Peak AI quasi aus und sagt sozusagen, die Bewertungen dieser Firmen, also insbesondere OpenAI, haben ihr Maximum erreicht. Und es gibt ja diesen Gartner Hype Cycle. Und Gartner sagt tatsächlich auch, dass Foundation Models and Generators für AI auf dem höchsten Punkt ist. Von da geht es dann ein ganzes Stück abwärts und dann kommt irgendwann so die produktive Phase, wo das tatsächlich eingesetzt wird. Aber wir sind eventuell höchstwahrscheinlich tatsächlich am Maximum-Hype-Gerade. Trotzdem war es mir wichtig zu zeigen, dass es auch sehr greifbare Anwendungsfälle gibt. Also OpenAI ist auf einem guten Weg wahrscheinlich 3-4 Milliarden Umsatz zu machen dieses Jahr. Hat letztes Jahr Runrate, also im Dezember Einkommen mal 12 die 2 Milliarden erreicht. Ich gehe davon aus, dass sie... vielleicht nochmal fast dreistellig wachsen dieses Jahr. Das heißt, die verdienen Geld damit. Was ich super spannend finde, ist das, aber ich glaube, das hatten wir auch schon mal erwähnt, die Systemintegratoren oder Independent Software Vendors, ISVs, wie Accenture und Deloitte, dass die halt richtig Geld verdienen mit AI. Also Accenture hat mehr Geld als OpenAI verdient mit AI und mehr Geld als die gesamte AI-Venture. Also sagen wir, wenn du auf alle VC-finanzierten AI-Companies schauen würdest, Dann haben die weniger Geld verdient mit AI bisher als Accenture. Und der Grund ist meiner Meinung nach, also Accenture sagt, sie haben 40.000 Leute intern sozusagen zu AI-Spezialisten gemacht und 600.000 Leute trainiert bei Kunden und so weiter. Der Grund ist aber, glaube ich, dass alles, CIOs, CEOs und so weiter, gerne AI-Projekte starten möchten, aber sie sind sich der Risiken auch so bewusst, dass sie nicht die Verantwortung dafür übernehmen möchten, wenn das schief geht am Ende, also wenn Daten liegen oder falsche Entscheidungen getroffen werden. Ich weiß nicht, ob es der sicherste Weg ist, aber... der Cover-My-Ass-Weg ist, das zu tun, was dann große Corporates immer machen, eine Unternehmensberatung, ein McKinsey oder so, zu beauftragen, das zu tun. Weil A, haben die natürlich wirklich vielleicht schon ein paar mehr Fälle gesehen und sind sich der Risiken auch sehr bewusst. Und gleichzeitig übernehmen sie so ein bisschen die Verantwortung dafür, dass jemand schuld ist, wenn es nicht klappt. Und ich glaube, damit wird Accenture dieses Jahr 2,4, 2,5 Milliarden. US-Dollar umsetzen und das macht Accenture, der Staat, heute zur erfolgreichsten AI-Company, was Umsatz angeht, wenn du so möchtest. Das wird sich, glaube ich, ein bisschen verschieben, aber das fand ich einen spannenden Fakt. Ganz ähnlich bei Deloitte. Deloitte ist der Generative AI Top Partner of the Year bei In der Google Cloud. Das heißt, ich gehe davon aus, dass die auch substanziell Umsatz... Übrigens, Deloitte, die Top-Company, die die Keynote geschaut hat auf LinkedIn. Auch ganz interessant. Man kann ja mal sehen, aus welchen Firmen die Leute kommen, die das zuschauen. Und ich glaube, die Top-Companies waren Deloitte, Mercedes-Benz und MHP. Porsche kann es auch sein. Schöne Grüße. Und genau, ein anderer Use Case, dieses Klana spart 700 Jobs in mehr Kundenbetreuung, das hatten wir ja vor relativ langer Zeit schon mal gehört, so ein bisschen dazu. Noch spannender finde ich fast Zoom, die 400.000 Callcenter Agent Stunden im Monat, jeden Monat, also 5 Millionen im Jahr einsparen und 90% der Inquiries, die sie haben an Kundenservice mit einem Virtual AI Agent beantworten. Das haben sie im Earnings Call bekannt gegeben. Man könnte sozusagen die Entwickler, die Microsoft GitHub Co-Pilot nutzen, als stellvertretend sehen. 1,3 Millionen Entwickler weltweit oder Entwicklerinnen nutzen den Co-Pilot. Dann Devin, darüber haben wir gesprochen, diesen First AI Software Engineer, die das noch weiter automatisieren wollen, dass AWS Amazon seinen eigenen Co-Pilot anbietet. Dann noch eine ganz spannende Zahl von Bloomberg Research und IDC, dass bis 2030 Generative AI an 900 Milliarden Markt, also fast ein, also 2031 wird es über eine Trillion Dollar Markt sein, laut der Schätzung. Im Moment sind wir bei, dieses Jahr wird es 137 Milliarden sein. Das klingt noch ambitioniert, aber muss man mal sehen. Aber eigentlich gehen alle davon aus, ich glaube, das ist klarer als letztes Jahr, dass da Wertschöpfung mit verbunden ist und auch direkt und greifbar und kurzfristig. Dann habe ich noch einen Rückblick gemacht. Ich glaube, die wichtigste Folie letztes Jahr war eigentlich diese Proprietary LLMs oder die Foundation Models, die Entwicklung von Foundation Models, finde ich nicht den spannendsten Teil, sondern eben, dass die Unternehmen, die Daten, Hardware und Distributionen darüber verfügen, dass die die Gewinner sein werden. Das würde ich nach wie vor so unterstreichen. Es ist vielleicht zu früh, das als richtig zu bezeichnen, aber ich würde weiterhin so denken. Es entstehen einfach, ich habe da so ein bisschen gezeigt, es gibt jetzt 150 Foundation Models inzwischen, die schlagen sich im Wochentakt in irgendwelchen Performance-Indizes, werden schneller, günstiger, liefern bessere Ergebnisse. Was man generell sieht, es gibt eine ganz spannende Studie von Katja Grace, von 2024, die zeigt, wie AI-Wissenschaftler einschätzen, wann gewisse Tasks oder gewisse Milestones erreicht werden. Sowas wie die AI schreibt, kann ein Bestsellerbuch schreiben, die die New York Times Hitliste stürmt oder eine Retail-Salesperson kann ersetzt werden oder man gewinnt einen Mathe-Wettbewerb oder ein Top-40-Pop-Song schreiben. Und man hat in zwei verschiedenen Jahren einfach Wissenschaftler gefragt, wann das erreicht wird. Und was man sehr klar sieht, ist, dass bis auf wenige Tasks, die lustigerweise fast alle aus dem Gaming-Bereich kommen, glauben Wissenschaftler, also Leute, die sich wirklich damit beschäftigen, dass das tendenziell früher erreicht wird. Also 2022 Haben Sie bei vielen Sachen irgendwie so in den 30er Jahren wird das, also 2035 wird das vielleicht erreicht, gesagt. Und 2023 glauben Sie schon, dass das noch vor 2030 erreicht werden kann. Das ist so jetzt sehr stark vereinfacht. Und auch sozusagen die Wahrscheinlichkeit von High Level Machine Intelligence und Full Automation of All Labor verschiebt sich nach links oben in dem Graph. Das kann man jetzt schwer erklären. Es sieht so aus, als wenn das letzte Jahr, und natürlich ist AI viel älter als der November 2022, aber das letzte Jahr von beschleunigter AI-Entwicklung scheint die Zukunft so in die Gegenwart zu ziehen und stark vorauszuziehen. Das sieht man relativ stark. Man muss ein bisschen aufpassen, dass ich hier nicht für die ganzen 45 Minuten spreche. Deswegen gebe ich mal ein paar Folien. So was siehst du in verschiedenen Sachen. Alles, was eigentlich messbar ist, so wie Visual Reasoning oder Natural Language Inference, Competition Level Mathematics, also alle Tests, die einigermaßen messbar sind. messen, wie schlau eine Maschine ist im Vergleich zu Menschen. Da ist die AI entweder auf dem Weg und sehr nah dran, die menschliche Performance zu erreichen oder ist in ganz vielen Bereichen auch einfach schon deutlich besser als Menschen. Dann kommt der wichtige Punkt. Letztes Jahr habe ich gesagt, Hardware halte ich für super wichtig. Ich glaube, das war uneingeschränkt richtig. So, das sieht man. Alle entwickeln nochmal neue Chips. Ich habe letztes Mal so erzählt, dass jeder der großen Tech-Konzerne ihre eigenen Chips eigentlich haben, um günstiger und leistungsfähiger AI zu rechnen oder Machine Learning zu rechnen. Google hat jetzt sozusagen diesen Axion-Chip nochmal neu gebaut, hat gestern, vorgestern auf der Google I.O. nochmal die nächste Generation TPUs vorgestellt, die fünfmal leistungsfähiger sein werden als die letzten. Also TPUs sind die Tensor Processing Units, 2015 schon hat Google begriffen, wir müssen eigene Chips bauen, diese TPUs. Da gibt es jetzt, ich glaube, die sechste Generation, die fünfmal schneller ist als die vorherige. Der Nvidia Blackwell-Chip ist auch ungefähr fünfmal leistungsfähiger als der Hopper, der letzte. Das heißt, man hat eine signifikante Beschleunigung erfahren, oder nicht Beschleunigung, aber Moores Law scheint weiterzuhalten. Und Hardware bleibt wichtig. Meta hat schon die zweite Generation ihrer MTIAs, Meta Training und Inference Accelerators, gebaut. Die hatten eigenen Chips und selbst Apple scheint neue AI-Chips zu bauen, während ihre normalen Chips ja auch schon einen New Engine mit drin haben. Und was ich dann noch spannend fand, ist, da haben wir im Podcast auch schon öfter drüber geredet, diese Cerebras Wafer Scale Engines, also wo man so einen ganzen Wafer, so eine Halbleiterscheibe, wie man sie kennt aus irgendwelchen Videos oder Fotos, zu einem Chip baut und dadurch die Kommunikation zwischen den Chips, also zwischen den Kernen beschleunigt. Und dadurch, das sieht man jetzt auch nur auf dem Graph richtig gut, verschiebt man die Moore's Law-Kurve eigentlich ein ganzes Stück nach oben oder bricht das Moore's Law im Positiven. Sinne, weil man viel mehr Transistoren auf die Chips bekommt und viel mehr Leistung. Also einfach gesagt, du stanz nicht mehr die einzelnen Chips aus dieser Wafer-Scheibe raus, sondern du hast halt eine ganze Wafer-Scheibe, die ein großer Computer wird. Dadurch hast du viel mehr Data-Throughput, also die Kommunikation zwischen den Zwischen den Kernen ist es schneller und das Schreiben und Auslesen aus dem Speicher im Chip ist viel schneller und das führt zu deutlich stärkeren. Man kann diese Wafer-Scheiben stacken in einem Server und die Server kann man nebeneinander stellen und dann gibt es diesen riesen Computer. der so 50 mal leistungsfähiger ist als ein Nvidia H100 Chip. Das habe ich mal verglichen mit 500.000 Netbooks in Reihe geschlossen sozusagen oder parallel geschlossen. Und damit kann man so ein Lama 2 Modell, was Meter gerechnet hat, statt in einem Monat, in einem Tag machen. Das macht es vielleicht am greifbarsten. Genau, habe ich kurz grog erklärt, ist nicht so spannend. CoreWeave, diese Plattform, hattest du mal von erzählt, wo man einfach nur Nvidia-Chips quasi in der Cloud mieten kann. Die haben inzwischen ihre Bewertung innerhalb von fünf Monaten verdreifacht auf 19 Milliarden. Wahnsinn.
Kurze Werbeunterbrechung. Lass uns über Produkt sprechen. In Zeiten hoher wirtschaftlicher Effizienz ist es für Firmen umso wichtiger, den Umsatz pro Nutzer zu erhöhen, die Abwanderung zu verringern und die Kundenzufriedenheit zu verbessern. Unser Partner Pendo hat dafür das richtige Produkt. Pendo ist eine All-in-One-Plattform für Produkterlebnisse. Die Produktteams dabei hilft, die digitalen Erlebnisse ihrer Kunden zu verbessern. analysiere die aktuelle Produktnutzung, betreibe kontextbezogenes In-App-Messaging und vieles mehr. Alles mit Pendo. Wenn du offline lernen möchtest, was mit Pendo alles möglich ist, komm am Donnerstag, 27. Juni um 12 Uhr zum Sprechspeicher im Herzen von Berlin. Das Programm und die Anmeldung für das Produktnetzwerk-Event findest du unter de.pendo.io. Der Link ist natürlich in unseren Shownotes. Und jetzt viel Spaß mit der weiteren Folge. Werbung Ende.
Genau, habe ich kurz erklärt, dieser Worldcoin, den ich letztes Mal vorgestellt habe, beziehungsweise dieses Projekt Worldcoin, das hätte man bei der letzten Präsentation diesen Coin gekauft, hätte man kurzfristig sein Geld verzehnfacht. Inzwischen ist es wieder ein bisschen runtergegangen, weil es wäre immer noch vervierfacht. Eine Sache, glaube ich, die man nicht vergessen darf, sind so die Human Cost von AI. Also die Menschen in den Philippinen, die früher Content Moderation gemacht haben und irgendwie Kinderpornos und Gewalt und sowas, raus sortieren mussten aus Social Media Inhalten. Von denen arbeiten viele jetzt als Labeler und sagen, was auf Daten, auf Bildern drauf ist oder ob irgendwelche Outputs von Modellen gut, safe und so weiter sind. Das heißt, damit AI hier funktioniert bei uns, wenn wir sie anwenden, müssen andere Leute sozusagen diese Labeling Arbeit machen. Dann der zweite Punkt, so nach Hardware und Distribution dachte ich ja, Data ist super wichtig. Das, glaube ich, zeigt sich auch so. Ganz spannend ist, dass die meisten Modelle schon die gesamten digitalen Daten des World Wide Web inhaliert haben. Also man sucht jetzt wirklich händeringend nach neuen Datenquellen. Also man muss sich vorstellen. Das, was in Büchern und dem Netz steht oder in digitalisierten Büchern und dem Netz steht, das ist größtenteils eigentlich in das Training der State-of-the-Art-Modelle schon eingeflossen. Und man sucht jetzt sehr stark eigentlich nach neuen Datenquellen und man kann irgendwie Daten, also OpenAI hat dann ja zum Beispiel YouTube transcribed, komplett YouTube transcribed und daraus versucht zu lernen.
Angeblich, oder?
Ja, allegedly, allegedly, genau, also wurden bezichtigt. Man kann überlegen, wenn die Modelle multimodal sind, du kannst natürlich mit Videos zum Beispiel mit einem viel höheren Throughput lernen. Also man geht davon aus, dass Menschen so schnell lernen oder relativ schnell lernen, weil sie sozusagen ein hohes Bandbreite-Input-Medium haben mit dem Auge oder einfach Millionen von Bits innerhalb von wenigen Sekunden quasi durch den Sensor schickst. Das könnte eine Lösung sein. Du kannst auch synthetisierte Daten machen. Irgendwelche noch nicht digitalisierten Quellen. Ich habe so dieses Beispiel genannt. Es gibt ja 2002 hat Google mal angefangen, alle Bücher der Welt zu scannen. Eines durch, eines Projekt. Und ihnen wurde dann mehr oder weniger untersagt, die öffentlich zu machen, aus Copyright-Gründen. Also ein paar kannst du bei Google Books frei durchsuchen, aber du kannst nicht alle durchlesen, weil gerade da, wo die Copyright-Lage noch ungeklärt ist. Und sie haben mal 25 Millionen Bücher gescannt. Und zum Vergleich... In dem Book 1 und 2 Modul, was in GPT 3.5 drin war, da sind so niedrige 5-stellige Anzahlbuchungen, vielleicht 12.000 Bücher. Google hat 25 Millionen, also 2000-facher davon, gescannt und tut das, ich glaube, langsam aber weiterhin. Und wir bekommen keinen Zugriff zu diesen Büchern durch das Scannen, aber Google bekommt sozusagen relativ exklusiv diese Daten, würde ich vermuten. Das ist so meine eigene Hypothese. Und das könnte natürlich noch sehr wertvoll werden, weil das was ist, was anderen potenziell erstmal nicht zur Verfügung steht. Aber man muss sich überlegen, was sind alles mögliche Quellen für Daten, die noch nicht... Die ganzen Wearables, die wir tragen, werden natürlich viele Real-Life-Daten generieren in Zukunft. Also die Metabrille oder die Apple Vision Pro, sollte jemand die tragen, das generiert natürlich auch alles Daten über, wie du dich bewegst, wie die Umwelt aussieht. Auch da kann man sicherlich viel daraus lernen, dass die Daten, die die Autos aufnehmen beim Fahren und so weiter, ich glaube. AI wird sehr, sehr datenhungrig werden. Und unter anderem werden wir alle bei der Arbeit überwacht werden. Also damit irgendwelche kleinen Robots unsere Arbeit erleichtern können, werden die genau schauen wollen, was wir machen jeden Tag. Und dabei wird wahrscheinlich jeder Mensch, der an einem Computer arbeitet, bei seiner Arbeit überwacht werden, damit er oder sie das in Zukunft effizienter machen kann. Das hat natürlich aber riesige Datenschutzimplikationen. Ansonsten, das wurde in der offiziellen Keynote von Roland ja auch aufgegriffen, dieses Reddit-Thema, wo Sie mich netterweise referenziert haben. Das ist ja 20% der GPT 3.5 Training-Data. Durch die Überhöhung des Reddit-Gewichts ist 20% des Einflusses auf Reddit-Links zurückzuführen. Was natürlich dazu geführt hat, und auch das haben wir im Podcast vor einigen Monaten schon mal erzählt, dass der einfachste Angriffsvektor, oder war es im OMR-Podcast, wo ich das erzählt habe, der beste Angriffsvektor, um jetzt deine Performance im Output von... die generativen Modellen zu verbessern, ist, indem du deine Reddit-Daten fakes. Also du machst irgendwie ein Advertorial und verlinkst das, wo drin steht, also du kaufst hier auf Forbes an der Unterseite, schreibst da, das ist die beste Company für das und das und das und das und dann votest du das bei Reddit mit Hilfe von unseren Nutzern, mit denen du dich verbindest oder mit einem Engagement-Pod. Wurdest du das bei Reddit hoch und kannst davon ausgehen, dass du da wahrscheinlich so ein bisschen das Image deiner Firma innerhalb der Sichtweise von AI aufpullieren kannst, was eben dazu führt, dass es jetzt viele schon gibt, die solchen Service anbieten und so weiter. Google hat 60 Millionen bezahlt, um sich exklusiv Zugang zu Reddits Daten zu sichern. Das ist, glaube ich, einer der größten Content Deals, die es überhaupt gibt. Und was ganz spannend ist, dass es wirklich so aussieht, als hätte Google nicht nur diese 60 Millionen bezahlt, sondern es ist wirklich höchst auffällig, wie seit dem Herbst 2023 die Sichtbarkeit von Reddit in Google angestiegen ist. Also die war halt vorher bei unter 100. Also Systrix-Sichtbarkeit misst so wie gut Webseiten in Google performen. Und in den USA war der Indexwert unter 100 noch im Herbst 2023 und der ist inzwischen über 1000. Und Es gibt keinen Weg, wie mir Google erklären kann, warum Reddit zehnfach weniger relevant war vor einem Jahr und jetzt zehnfach mehr relevant ist für Google-Nutzer. Das heißt, dann steht da, und ich glaube, das gleiche war für Stack Overflow, Sekunde, die ja auch sehr spannende Daten haben, gerade für Programmierung. Ja, es ist nicht ganz so deutlich, aber man sieht auch, lustigerweise auch seit dem Herbst 23, eine mindestens Verdopplung, mehr als Verdopplung von Stack Overflow, was ein anderes Forum ist, was gute Daten hat, um Programmierbots damit zu, oder Programmier-Copiloten damit zu trainieren. Und wie gesagt, eigentlich muss Google mal erklären, warum Reddit jetzt zehnmal relevanter ist. Weil Reddit hat in der Zeit ja nicht massiv an Nutzern oder an die Qualität der Inhalte hat sich aber nicht massiv verändert. Ich glaube, man hätte Reddit aus SEO-Sicht immer noch besser fahren können, indem man ein paar schlechte Inhalte gefiltert hätte und so. Ich glaube aber nicht, dass das passiert ist in der Zeit, sondern es sieht einfach aus, als wenn Google aus irgendeinem Grund beschlossen hat, das ist jetzt zehnmal wichtiger. Für uns oder für die Nutzer. Und ich finde es durchaus erklärungsbedürftig, ehrlich gesagt, weil es den Eindruck erweckt, dass man so eine Art Günstling geschaffen hat oder Protégé und die jetzt da bedenkt. Genau, dann habe ich das Habsburger Problem von Daten. Also es geht immer noch weiter um das Thema Training Data. Das Habsburger Problem erklärt, hast du das verstanden? Ja.
Ja, alle haben die gleichen Daten und das Ergebnis ist halt nicht so wahnsinnig überraschend.
Noch etwas anders, also was ja passiert ist, diese immer mehr Webseiten werden schon mit Hilfe von generativer AI geschrieben. Das heißt, der Anteil der Inhalte, die selbst schon aus generativer AI erzeugt wird, am gesamten Inhalt des Netzes, wird tendenziell immer größer. Und irgendwann, wenn ein Modell nur noch aus Daten lernt, die sie selbst generiert hat, dann kommt es zu einer Art Inzugsproblem. Daher das Wort Habsburger. Also die Habsburger hatten alle, auch dazu muss man die Präsentation sehen, um das zu verstehen, aber die hatten alle so ein aristokratisches Kinn. Also auf Deutsch gesagt waren die ziemlich hässlich. Die hatten eine dicke Unterlippe und ein fliehendes, nicht fliehendes, sondern nach vorne stehendes Kinn. Und man... Das attribuiert das auf ein Inzugsproblem in der Familie zurück. Also das ist relativ manifest, das Inzugsproblem, weil da, wo normalerweise 32 Urvorfahren stehen in der fünften Generation, gab es nur die zehn gleichen Personen bei den Habsburger und die Urgroßeltern von Karl II., Sechs von den acht Urgroßeltern stammen von einer und derselben Person ab. Also der Stammbaum ist ein sehr kleiner Kreis in dem Fall. Die Medici in Florenz hatten das gleiche Problem. Die haben alle geschielt zum Beispiel. Die haben so einen divergenten Strabismus, das ist nach außen schielend. Und die mussten sich dann immer, also selbst Leute, die sie gemalt haben, also du gehst ja davon aus, dass wenn jemand da damals tausende von Gulden oder was auch immer in Florenz die Währung war, für ein Bild bezahlt, dass man das so schön wie möglich macht und trotzdem haben die Malers es nicht geschafft, diesen Silberblick wegzumalen, weil es so offensichtlich war. Wie auch immer, auf jeden Fall haben AI-Modelle das gleiche Problem, dass wenn sie immer wieder aus selbst generierten Inhalten fressen sozusagen oder lernen, Dann kommt es irgendwann zu so einer Art Kollaps, zu einem Kollaps der Leistung, dass wirklich die Leistung sich rapide sehr schnell verschlechtert und das nennt man das Habsburg-Problem. Das macht das schön greifbar. Genau, zum Thema Distribution, da kann man glaube ich nicht so viel sagen. Also einerseits ist es super spannend, wie der Apple-Deal ausgeht. Welche AI wird Apple auf ihre Telefone packen? Google hat ja so angekündigt, dass sie ihr eigenes kleines Modell, also Nano, wird wahrscheinlich das Android-Standard-Modell, Gemini Nano. Und jetzt die Frage, was macht Apple? Nehmen sie OpenWare ein, nehmen sie Google, nehmen sie ein eigenes, machen sie eine Wahlmöglichkeit. Aber was man schon sieht ist, das habe ich mit so einem Meme erklärt, dass im Moment werden wir so fast ein bisschen gepusht oder gezwungen, AI zu nutzen, weil die meisten Leute das aktiv noch gar nicht so nachfragen.
Und denkst du, dass Apple ähnliche Preise zahlt oder Geld nehmen wird wie von Google? Also wird OpenAI das richtig zahlen?
Ich glaube, das ist halt die Frage, wie dieser Deal aussieht. Ich glaube, dass Apple Geld bekommen wird dafür.
Ja, also wie sie es mit Google auch bekommen. Und wie es eigentlich ja infrage gestellt wird, ob das überhaupt erlaubt ist.
Genau, wie das eigentlich im Suchmarkt gerade abgekanzelt wurde und nach dem DSA oder so nicht funktionieren würde. Deswegen das Spreche für eine Wahlmöglichkeit, dass man sagt, unser präferiertes Modell ist Siri meets OpenAI und du kannst auch Google oder irgendwas anderes wählen. Und warum können sie dafür Geld verlangen? Weil natürlich Daten anfallen. Und eine Datenquelle, die, ich will nicht sagen unerschöpflich ist, aber die noch zusätzliche inkrementelle Inhalte bringt in dem Modell, ist natürlich das, was die Nutzer selber als Frage eingeben oder in das Kontext-Window schreiben. Also ich schreibe an meiner Diplomarbeit und packe jetzt meine Diplomarbeit da ins... ins Kontext-Window von ChatGBT und frage, was sind inhaltliche Fehler da dran oder welche Vermutungen habe ich vergessen. Und in dem Moment lernt das Modell natürlich unter anderem auch aus dieser bisher noch nicht veröffentlichten Arbeit. Potenziell könnte man überlegen, ob das der Fall ist. Das würde es natürlich sehr anfällig für Manipulation machen, weil dann könnte ich einfach 5000 Leuten auf der Welt sagen, schreibt man in ein Context-Window, dass GitHub Copilot der beste Pilot ist, um Software automatisiert oder mit Unterstützung zu schreiben. Dann ging es weiter zu einem Thema, was relativ viel Platz eingenommen hat, aber auch relativ wichtig ist und was ich letztes Jahr übersehen habe, das haben wir hier schon mal besprochen, aber der Energiehunger von AI. Warum ist das wichtig? Also einerseits, weil so Leute wie Mark Zuckerberg oder Sam Altman sagen, dass das wirklich einer der größten Roadblocks oder Bottlenecks gerade ist für die Weiterentwicklung von AI, dass man sich fragen muss, ob wir genug Energie dafür haben. Dann gleichzeitig, wir hatten das im Podcast schon mal verglichen, dass allein was Microsoft an Datacenter-Kapazität aufgebaut hat, verbraucht so viel Energie wie die letzten drei Atomkraftwerke, die wir abgeschaltet haben, Neckarwestheim, ISA 2 und Emsland. Also ein Atomkraftwerk ungefähr 1,4 Gigawatt Leistung und was Microsoft so verbraucht oder an Kapazität geschaffen hat, ist 5 Gigawatt. Das kann man ganz gut vergleichen. Genau, dann habe ich kurz erzählt, dass Microsoft allein Microsoft wirklich 50 bis 100 neue Datacenter im Jahr bauen will und natürlich alle anderen genauso. Dann, ganz spannend, ich habe mal irgendwo gehört, dass die BASF so viel Strom verbraucht wie die gesamte Schweiz. Das fand ich einen lustigen Fakt. Und dann habe ich versucht, mal das, was Big Tech quasi verbraucht, ins Verhältnis dazu zu setzen. Leider gibt es keine Amazon-Daten. Amazon weist den Stromverbrauch im Sustainability Report nicht aus. Zumindest habe ich es nicht gefunden. Aber allein Meta, Google und Microsoft zusammen verbrauchen schon mehr Strom als BASF. Und BASF ist mit 60 Terawattstunden wahrscheinlich der Größte. Vielleicht gibt es noch ein paar andere Chemiekonzerne, die richtig groß sind, aber vielleicht Dow Chemical. Aber BASF, wie gesagt, so viel wie die Schweiz. Das ist viel Energie. In Ludwigshafen allein 10%. Also das Stammwerk in Ludwigshafen bei Mannheim verbraucht 5,9 Terawattstunden, glaube ich, ein Zehntel davon. Der Rest, BASF, ist ja auf der ganzen Welt vertreten. Oder in Ostdeutschland hat es ja auch Werke und so. So kommt man auf 60 Terawattstunden. Und Big Tech ohne Amazon? Also würde man Amazon dazurechnen, wären wir höchstwahrscheinlich bei 100 Terawattstunden. Oder man könnte sagen, dieses Jahr vielleicht so viel Strom wie BASF und die Schweiz zusammen. Genau, da habe ich unseren diesen Vergleich Hopper 100 Karte, also so eine Nvidia Karte gegen Balkonkraftwerk nochmal versucht zu machen. Wie gesagt, egal wie ich ihn mache, irgendjemand stößt sich immer da dran. Aber ganz einfach kann man sagen, die Karte nimmt 700 Watt auf, das Balkonkraftwerk hat eine Peakleistung von 800 Watt, die aber nur zu ungefähr 1000 Stunden im Jahr, Pi mal Daumen, also worauf sich Leute einigen können, das ist die richtige Antwort zwischen 4 und 8 Balkonkraftwerke pro Karte. Das hängt so ein bisschen auch an der Auslastung der Karte und so weiter. Aber auf jeden Fall brauchst du, also eine richtige Aussage ist, man braucht mehrere Balkonkraftwerke, um eine H in 100 Karte zu betreiben. In meinem Rechenbeispiel waren es sieben bis acht Stück und damit eigentlich ein komplettes Einfamilienhausdach. Dann habe ich erklärt, dass entweder davon immer in zwei Millionen Stück bauen will dieses Jahr. Dann kann man sich ausrechnen, wie viele Dächer man mit Solar bebauen musste und eigentlich braucht es ja auch noch Speicherlösungen und so weiter dazu, aber man will das ja einfach und greifbar machen. Aber wie gesagt, es sind zwei Millionen Chips, von denen jeder Chip eigentlich mehrere Balkonkraftwerke braucht, um betrieben zu werden. Das zeigt nochmal aus einer anderen Sicht, wie energiehungrig diese AI ist und ich meine, es werde jedes Jahr mehr davon gebaut werden. Es wird sich immer nur weiter potenzieren. Wie gesagt, Sam Altman und Mark Zuckerberg halten das für den größten Road- oder Bottleneck. für die Weiterentwicklung von AI, was vielleicht auch erklärt, warum Sam Orton ja seit längerer Zeit schon in Kernfusion und Kernspaltung Startups investiert hat und in so eine grünere Variante, Mischung aus Wärmekollektor, Wärmespeicher und Wärmekraftwerk. Das ist noch in einer explorativen Phase, muss man gucken, ob sich das durchsetzen kann, aber damit könnte man Strom produzieren. Für unter einen Cent pro Kilowattstunde produzieren kann man, sagen Energieexperten, aber auch einfach mit Solar- und Speichertechnologie in Zukunft machen. Dann ist meine These immer so, es gibt kein Problem, was AI schafft, was du nicht auch mit AI lösen kannst. Also fairerweise muss man eben auch sagen, dass so viele Durchbrüche, die es bei der Fusionsenergie gibt, teilweise von Machine Learning oder AI unterstützt worden sind. Und, was auch wichtig ist, Das Trainieren und Ausführen dieser Modelle braucht unheimlich viel Energie, aber tatsächlich braucht es weniger Energie, als würde ein Mensch diese Dinge machen. Also sagen wir, ein Bild in Photoshop zu malen, das mit Midjourney zu generieren, verbraucht weniger Energie, als wenn ich selber in Photoshop... Male, das Gleiche gilt für Texte. Das heißt, ultimativ sollte es eigentlich Ressourcen schonen, je nachdem, ob man jetzt dadurch deutlich mehr Content eventuell erzeugt, dann würde dem das entgegenwirken. Aber AI ist auch so ein bisschen die Lösung natürlich für Energieprobleme. Da komme ich später noch drauf. Dann mit dem Energieverbrauch verbindet sich gleichzeitig hoher Wasserverbrauch. Eine einfache Rechnung ist ungefähr zwei Liter Wasser pro Kilowattstunde, die die Datacenter für die Kühlung brauchen. Amazon braucht nur ein Zehntel davon ungefähr. Die sind immerhin sehr wassereffizient, sagen sie. Aber im Schnitt sollen Datacenter angeblich bis zu zwei Liter Wasser pro Kilowattstunde verbrauchen. Ein Chat-GPT-Chat-Verlauf, so eine typische Anfrage mit ein paar Rückfragen, verbraucht ungefähr einen halben Liter Wasser an Kühlwasser pro Und genau, Microsoft hat seinen Wasserverbrauch um ein Drittel gesteigert, allein im letzten Jahr verbrauchen ungefähr 6 Milliarden Liter Wasser. Google ungefähr 30 Milliarden, wenn ich mich richtig erinnere. Und dann, was ich spannend finde, ist, dass sie immer halt so sagen, dass sie entweder water positive sind oder water replenishment betreiben oder water stewardship. Indian Sustainability Reports und ich glaube, das ist so ein bisschen Blue Washing, weil du kannst Wasser nicht so einfach in den Grundwasserspiegel zurückgeben, meiner Meinung nach, wie versucht wird, den Eindruck zu erwecken. Also was man da macht, ist teilweise Man macht dann irgendwelche Brunnenprojekte in Indien, die über 20 Jahre so und so viel Wasser produzieren. Und dann zieht man diese 20 Jahre Wasser zur Verfügungstellung in dieses Jahr vor, um den Eindruck zu erwecken, dass man mehr Wasser zurückgibt an die Community, als man verbraucht hat. Ich finde das alles Augenwischerei. Insgesamt hat Microsoft nur 7 Millionen in Wasserprogramme investiert letztes Jahr. 7 Millionen ist sozusagen was... Der Podcast geht jetzt ungefähr so 40 Minuten. In der Zeit hat Microsoft die 7 Millionen verdient. Und der Rest des Jahres ist... Also nicht verdient, sondern das ist der Umsatz. Sekunde. Da muss ich nochmal nachgucken. 106 Millionen. Microsoft ist der Umsatz. Ne, 106 Milliarden ist zu wenig für Microsoft, oder? Ich glaube, das ist tatsächlich der Gewinn. Ja, Gewinn macht mehr Sinn. Sekunde. Bevor ich Quatsch erzähle. Nee, nee, genau. 106 Milliarden Operating Income. Wie gesagt, 40 Minuten davon investieren sie in Wasserprojekte und deswegen sollen wir glauben, sie sind wasserpositiv. Google sagt, wie gesagt, verbraucht ungefähr 30 Milliarden oder müsste dieses Jahr ungefähr 30 Milliarden verbrauchen. Das ist so viel zehnmal die Außenahlzeit. Ich glaube, darüber haben wir schon gesprochen. Und Googles Ziel ist aber 120 Prozent des Frischwasser- oder Trinkwasservolumen, was sie konsumieren. zurückzugeben an die Communities. Also noch 20% mehr als die Verbrauchung wollen sie zurückgeben bis 2030. Status heute sind sie bei 6%. Und über dieses Zurückgeben muss man eben reden. Wie gut kann man Wasser wirklich zurückgeben an die Community? Ich glaube, so einfach ist es nicht. Erfunden hat den Quatsch mal 2015 oder so, glaube ich, Coca-Cola mit der Kampagne »For every drop we use, we give one back«. Das hat sich schnell herausgestellt, dass das nicht die Wahrheit ist, sondern dass sie irgendwie das Wasser, was zur Produktion der Flaschen benötigt wird und sowas, alles gar nicht einrechnen. Inzwischen gibt es die Kampagne ja nicht mehr, die Seite ist verschwunden. Was ich aber glaube, ist, dass die ganzen Charities, das war der Gag, den ich, was heißt Gag, das, was ich skippen musste. Ich glaube, es ist die beste Zeit für eine Water-Charity, so wie für Viva Con Agua oder so, oder WaterAid in den USA profitiert jetzt schon sehr stark davon. Weil diese Tech-Konzerne werden natürlich unheimlich viel Geld ausgeben, um Wasserpositivität als Eindruck zu erzeugen. Und einer der einfachsten Wege ist natürlich, solche Organisationen zu fördern. Was für die Organisation gut ist und was für die Lage der Leute, die die Brunnen bekommen, so auch gut ist, ist ja gar keine Frage. Ich glaube nur, dass es eine Illusion ist, zu glauben, dass eine Firma wasserpositiv sein werden kann. Wir sind 30 Milliarden Liter Wasser im Jahr verbraucht.
Nun nutzt du ja einen Duschtopf, der dir zeigt, wie wenig Wasser du brauchst beim Duschen. Hast du dir auch überlegt, was die Data Center machen könnten, um weniger Wasser zu brauchen?
Das muss ich mir nicht überlegen, weil auch das hat sich AI überlegt. Eines der ersten kommerziellen Anwendungen für DeepMind oder für die Forschung von DeepMind. DeepMind ist das AI-Labor von Google. war, wie man die Kühlung in Datacentern optimiert. Und dabei haben sie 40% Energie und damit auch Wasser einsparen können. Wie gesagt, es gibt kein Problem, was AI schafft, was AI nicht auch lösen kann, glaube ich. Das ist ein bisschen schwarz-weiß formuliert, aber ich glaube, tendenziell ist das richtig. Und wie gesagt, man kann AI auch dafür einsparen. Also wahrscheinlich hat AI... Es verbraucht schon netto mehr Wasser, aber es hat trotzdem das Wasser, was für viele andere Sachen wie Suche oder Streaming oder so verbraucht wird, schon auch viel Wasser eingespart. Und insgesamt muss man auch sagen, dieser Wasserverbrauch 30 Milliarden Liter, das klingt halt viel, aber im Vergleich zur Nahrungsmittelindustrie oder einfach nur die Jeans, die in einem Jahr hergestellt werden, ist das alles noch relativ wenig, aber trotzdem ist es ein Faktor. So, dann, was mir wichtig war, was ich glaube, was zu wenig beleuchtet wird, so wir reden viel darüber, kann man jetzt besser Marketing machen, besser Texte generieren mit AI, besser Hollywood-Filme schreiben und so, aber wie man Machine Learning einsetzen kann, um dann die Wissenschaft effizienter zu machen und damit eigentlich die Menschheit auf einem breiten Level, zu befördern. Das finde ich eigentlich spannend und darüber wird zu wenig geredet und deswegen wollte ich darüber reden. Und so als erstes Beispiel habe ich MedGemini, was angeblich, glaube ich, gestern erst offiziell gelauncht wurde, aber die Studien waren schon draußen. MedGemini ist eine Version von Googles Gemini-Modell, was insbesondere auf medizinischen Daten oder ist eine Kombination aus Expert-Modellen, was die auf medizinischen Daten trainiert wurde. Und die erreicht eine 91,1%ige Genauigkeit bei Antworten, bei medizinischen Antworten. Und es ist multimodal. Du kannst Bilder, du kannst Röntgenbilder reingeben, du kannst Stimmen reingeben, du kannst Text reingeben und 91% Genauigkeit. Jetzt würde man sagen, ich gehe halt nicht zu einem Arzt, der 91% genau ist. Ich erwarte schon mal, wenn es um meine Gesundheit geht oder eine Krebsdiagnose, erwarte ich mehr als 91% Genauigkeit. Dazu muss man aber zwei Sachen sagen. A, von diesen 100% wurden 7,4% der Fragen im Nachhinein von menschlichen Experten so eingeordnet, dass es keine richtige Antwort gibt oder nicht genug Hintergrund verfügbar war, um die Frage richtig zu beantworten. Also wahrscheinlich wäre der Wert sogar noch ein bisschen höher als 91%. Und was für wichtiger ist, dass die besten menschlichen Experten auf 87% kommen. Also ein durchschnittlicher Mensch, der das Examen absolviert hat, kommt glaube ich auf 60%. Und wirkliche Matter-Experts kommen auf 87% und Matt Gemini kommt auf 91%. Hinzu kommt noch, das bezieht sich auf ein früheres Modell, Matt Palm. Das wurde nicht nur als besser und akkurater eingeschätzt, sondern auch als empathischer überrascht. überraschenderweise, oder ich finde es gar nicht so überraschend, ehrlich gesagt, aber die Antworten wurden als netter und empathischer geratet. Das heißt, eigentlich könntest du sagen, dass in dem spezifischen Use Case AI jetzt schon besser ist als die besten Menschen. Genau, dann dieses Alpha Fold, ich glaube, das haben wir ja schon mal erklärt, dass du diese Proteinstrukturen vorberechnen kannst mit Machine Learning, was ja aus DeepMinds Laboren entstanden ist. Ähm, Dass dadurch diese neuen Antibiotika-Kandidaten entstanden sind und wie wichtig das eigentlich ist. Wir haben seit 60 Jahren keine neuen Antibiotika gefunden. Seit wir Penicillin oder Cephalosporine erfunden haben, haben wir eigentlich keine neuen Antibiotika mehr gefunden, die gegen penicillinresistente Keime funktionieren. Und das ist eigentlich ein riesiger Durchbruch, weil es hunderttausende Leben retten kann im Jahr. Dann diese ganze Materialwissenschaft, also dass du jetzt eventuell einen Lithiumersatz, also deutlich weniger Lithium brauchst, um Batterien herzustellen, weil AI gute Kandidaten findet, um das Material zu ersetzen. Dies und das, Sekunde, genau. Wettervorhersagen kann man viel besser machen mit AI. Das ist für Disaster Prevention, oder nicht Prevention, aber Disaster, wie sagt man, Warnung vor Naturgewalten, natürlich relativ wichtig. Dann habe ich so ein bisschen über Robotics erzählt. Ich glaube, das wird ein Thema, was dieses Jahr sehr spannend wird. Also so Textgenerierung und so, das bleibt natürlich alles relevant. Aber ich glaube, dieses Jahr werden wir viel Fortschritt bei Robotertechnologie sehen. Und es ist eben nicht nur der Boston Dynamics Roboter, den man oft sieht, und es ist nicht nur der Tesla Roboter, sondern es ist irgendwie auch der Digit von Agility. oder der Figure One. Es gibt halt wirklich mindestens zehn Firmen, die scheinbar zumindest vergleichbare Roboter am Markt haben gerade. Und die werden schon bald, glaube ich, erste menschliche Arbeiten übernehmen. Das wird sich, glaube ich, dieses Jahr sehr stark beschleunigen. Genau, dann haben wir noch kurz über das Thema Open Source gesprochen. Ich glaube, dass das einer der Gründe ist, warum diese Modelle eben commoditized werden, dass Im Moment ist es noch sehr stark so aufsieht, als wenn die besten Open-Source-Modelle die kommerziellen Modelle vielleicht nicht schlagen, aber sehr, sehr nah daran kommen. Teilweise sie auch schlagen, je nach Generation. Das ist so ein bisschen auch eine Analogie zum offenen Internet insgesamt. Alles, was Infrastruktur ist eigentlich am Internet, ist fast immer Open Source geblieben. Du kannst sagen, Apache Server, Solar Index, Git, Hadoop Cluster, MongoDB, MySQL, also die meisten Datenbanken eigentlich, was Apache Tomcat, habe ich schon gesagt, selbst die Mobilfunkmasten, die Software, die darauf läuft, das Open Source und so weiter. Von daher glaube ich, gibt es einen guten, genau, Node.js, Docker, Selenium, Chromium, Spark, VLC, Android, Excel, all das. Und eigentlich gibt es einen guten Case, dass das ganz ähnlich sein wird bei AI. Das ist dich entscheiden, ob du das OpenAI-Model oder das Google-Model nimmst, könnte so ein bisschen sein, wie ob du eine Webseite eben, ob du eine MongoDB oder CouchDB nimmst oder irgendwie so eine Webseite nimmst. Dann habe ich mich so ein bisschen gefragt, warum steckt Meta eigentlich 30 Milliarden oder 30 bis 40 Milliarden pro Jahr in CapEx in AI, wenn sie es dann Open Source machen? Im Vergleich, 30 Milliarden ist ungefähr so viel wie das Apollo-Programm, das zwei Menschen auf den Mond gebracht hat, in heutigen Dollars gekostet hätte. Also Meta gibt jedes Jahr so viel Geld für AI-Hardware aus oder CapEx aus, wie das Apollo-Programm insgesamt gekostet. Aber das hat ganz gute Rückflüsse. Man muss davon ausgehen, dass das Tracking- und Targeting-Problem auch mithilfe von Machine Learning gelöst wurde. Das sieht man ja sehr gut in Metas Ergebnissen, was das an Rückflüssen bringt. Dann so bei Ranking und Recommendation sagt er ja selber, dass sie da nicht so weit vorangekommen wären ohne massive Rechenpower, also dass sie dann mehr von TikTok lernen. Dann können sie natürlich in Zukunft, uns wird ja gerade überall der Meta-Assistant oder Meta-AI in die Apps gefeedet, der wird natürlich dann unter anderem auch darauf laufen. Du kannst neuen Content erstellen und Kreativität anlocken durch AI. Und am Ende kannst du vor allen Dingen sozusagen jedem ins Lagerfeuer pinkeln. Also die Angst, dass andere sozusagen führend werden bei AI, kannst du natürlich so ein bisschen mitigieren, wenn du einfach immer kostenlos ein fast ähnlich gutes Modell zur Verfügung stellst. Das hilft wahrscheinlich zu verhindern, dass man wieder in so eine Abhängigkeitssituation kommt, dass irgendwie ein OpenAI oder ein Google... die AI komplett kontrolliert und Meta dann wieder Bittsteller wird. Allein das ist wahrscheinlich wert, selbst wenn man da massiv investieren muss, aber nur für Waffengleichheit zu sorgen. Genau, da habe ich so ein bisschen über Sovereign AI, ich glaube, darüber haben wir ja auch schon mal gesprochen, dass du wirst in gewissen Kulturkreisen einfach eigene Modelle brauchen. Das siehst du ganz gut im arabischen Raum, siehst du in Russland, siehst du in China, ja, in der gesamten muslimischen Welt eigentlich. Du musst Also, Modelle haben immer ein Bias, das hauptsächlich von den Trainingsdaten natürlich abhängt. Und du kannst nicht erwarten, dass, sagen wir mal, Saudi-Arabien jetzt sein Volk auf Basis von OpenAI beschulen würde mit AI-Ergebnissen, sondern dass man da gewisse Glaubensgrundfeste mit drin haben will. Und plus, das ist ein Riesenproblem, ist das in den Trainingsdaten, die Trainingsdaten bestehen ja zur Hälfte aus englischer Sprache und damit sind so ganze Bevölkerungskreise und richtig große, die Hindi sprechen oder eben Arabisch und Bengali. sind unterrepräsentiert in den Modellen und auch das ist ein Grund. Genau, da habe ich kurz erzählt, dass Aleph Alpha hier irgendwie noch nichts gebacken bekommen hat, bisher langsam mal was zeigen könnte. Dann jetzt ein bisschen vorausschauend, ich bin gleich fertig. Also die Smaller Language Models, Wird ein großer Trend sein, glaube ich, 2024, dass die Modelle effizienter, kleiner, schneller werden, dass du mehr Mix of Expert und Compound Models hast, also wo verschiedene kleinere Modelle entweder gestackt nacheinander oder wahlweise antworten. Dann habe ich kurz dieses Fund-to-Funding-Problem erklärt, dass zwei Drittel des VC-Fundings in AI eigentlich von den großen Companies kommen, das haben wir ja ausreichend auch schon besprochen. Reasoning, also dass Modelle reasonen und planen, also nachdenken oder schlussfolgern und planen können, das ist eigentlich glaube ich auch absehbar, dass das möglich ist. Teilweise, du hast das Q-Star-Modell bei OpenAI. Jan de Con von Meta geht davon aus, dass eigentlich glauben alle, dass es eine Frage der Zeit ist. Auch Google hat im Keynote wieder gesagt, dass Reasoning Capabilities in den Modellen vorgesehen ist. Also die werden schlussfolgern können. Auch da wird man weit vorankommen. Genau, dann habe ich schon gesagt, wie du richtig letztes Mal formuliert hast, dass ich glaube, dass OpenAI sich nochmal den Suchmarkt anschauen sollte, einfach weil es so attraktiv ist. Das ist das Letzte und vielleicht auch sehr Wichtige, dass ich ein bisschen Angst habe vor einer Kolonialisierung der Welt durch US-Konzerne, so wie es beim Online-Marketing passiert ist. Dass jeder seine 3-5% bei Google oder Meta abgibt von seinem... Und das ähnliche droht halt bei AI zu passieren. Natürlich werden alle Firmen dadurch erstmal effizienter, aber die zusätzliche Wertschöpfung wird halt relativ gesehen mehr in den angloamerikanischen Raum gehen. Und das führt zu allerlei Problemen. Also wenn wieder nochmal so viel Wertschöpfung dahin verschoben wird, dann ist wieder nicht steuerbares Einkommen in der EU ein Riesenproblem für die Staatsfinanzierung. Das Kräftegleichgewicht, Innovationsgleichgewicht wird noch weiter Richtung USA verschoben. Und das kann alles eigentlich nicht gut sein. Deswegen brauchen wir souveräne Modelle allein um die Steuergelder. Also damit wir von der Wertschöpfung, die AI generiert, mit profitieren. Die nächstbessere Lösung wäre es dann nur sozusagen eine Art AI-Steuer zu machen, dass du dafür sorgst, dass egal wie das Revenue mit Steuertricks und hergeschoben wird, dort wo AI angewendet wird, angewendet ist wieder schwer, weil dann könntest du es ja im US-Data-Center anwenden und wieder herschicken oder so, aber es wird gar nicht so einfach, dieses Schlupfloch zu schließen. Die bessere Lösung ist hier, wir bauen eigene oder wir nutzen Open-Source-Modelle, um einen Großteil der Wertschöpfung im Land zu behalten. Ansonsten ist das eben der ultimative Grund, warum der S&P 500 oder Nasdaq deutlich besser als der MSCI World performt. Immer wenn die Frage kommt, haben die großen Indizes nicht zu viel Tech-Exposure oder zu viel US-Exposure, ist meine Antwort ja. Ja, haben sie, aber das ist vollkommen rechtfertigt, weil diese Unternehmen halt einen Großteil der Wertschöpfung weltweit auch von anderen Unternehmen abschöpfen. Und deswegen ist es wahrscheinlich vollkommen verursachungsgerecht, die so überzubelassen. Und dann gleichzeitig, ich finde es eine spannende Beobachtung, aber auch natürlich eine Warnung, dass wir darauf Acht geben müssen, dass das nicht nochmal passiert, was beim Online-Marketing oder im Werbemarkt, könnte man sagen, ganz breit passiert ist. Genau. Und das war's. Achso, man kann die Slides runterladen, wie gesagt, unter doppelgänger.io slash ei. Wer Feedback dazu hat, immer gern auf Discord direkt loslassen oder mir schreiben. Ja, hat jetzt ungefähr so lange gedauert wie auf der Bühne.
Ja, vielen Dank für die wirklich kurz und knackige Zusammenfassung.
Gib mir nochmal kurz eine Zusammenfassung.
Was waren die großen Themen?
Was ist der Teaser?
Warum sollte ich mir jetzt nochmal dieses 40-minütige Video auf YouTube anschauen? Wertschöpfung nach Europa holen wird doch schwierig. Also außer es gibt jetzt eine Handvoll wirklich verrückter Leute, die den Kampf aufnehmen. Und selbst die Finanzierung wird ja... Selbst das Investment kommt ja von dort, von den Firmen. Also du müsstest ja...
Ja, ganz ehrlich, wer eine Firma besitzt, ist mir relativ egal. Also ob das dann in der Hand von irgendwelchen Pensionskassen ist, subiert, solange die wenigstens ihre Steuern zahlen in Deutschland oder in der EU. Von daher finde ich das tatsächlich... Also für den Wohlstand der Volkswirtschaft wäre es natürlich noch schöner, wenn das auch irgendwie mit deutschem Geld finanziert ist, aber... Ich glaube schon, dass man schon eine Chance hat. Aber du siehst, wie Mistral eigentlich relativ gut mithält. Wie gesagt, Aleph Alpha kann man leider noch nicht als Beispiel nennen. Aber es zeigt ja schon, dass man Konkurrenz, also und plus, wie gesagt, man kann es ja mit aufbauen auf Open-Source-Modellen. Oder Mistral ist ja auch ein Open-Source-Modell. Das heißt, ich würde das noch nicht verloren. Glaube ich. Aber ich meine, problematisch wäre es, wenn es alles über die großen also über Microsoft, ServiceNow, Oracle und so weiter in die Unternehmen einfließt, dann wird die Wertschöpfung natürlich in den USA landen. Das wäre problematisch. Aber prinzipiell glaube ich, habe ich da noch nicht die Hoffnung verloren.
Also müsste da eigentlich SAP Gas geben?
Ja, also die Firmen, die Firmensoftware machen und so ein bisschen auf den Daten drauf sitzen, also SAP, Oracle, vielleicht IBM, ServiceNow, ich glaube, die sind eigentlich in der besten Position. Plus aber eben die Beratung auch wie NextCentral und so weiter. Ob die Firma sich das allein traut mit den Software-Vendoren, ist noch nicht ganz klar. So, wir müssen noch ein bisschen weitermachen.
Ich nehme uns mal zurück zu Dienstagabend. Wir haben Dienstagnachmittagabend aufgenommen. Dann irgendwann um 20 Uhr schreibt Jan aus dem Off in unseren Groupchat und teilt das Chat-GPT-4O-Modell nochmal mit einem Video mit dem Gründer von dieser Khan Academy, der mit seinem Sohn zusammen... Mathe-Nachhilfe mit OpenAI macht. Und er schreibt so ein bisschen, er kann nicht verstehen, wie man das nicht revolutionär finden kann. Dann zwei Stunden später schreibt er nochmal in den Groupchat Projekt Astra. Ich finde vor allem, Astra müsste auch in unseren Song. Also irgendwie, ich frage Astra und bestelle einen Radler oder sowas könnte in dem Lied reinkommen. Weißt du noch, für was Astra steht?
Ich weiß, dass der Google-Assistent wird Astra, oder? Ja.
Ja, Advanced Seeing and Talking Responsive Agent.
Mhm.
Ja. Wie die immer auf die Namen kommen.
Aber guter Name. Würde ich sagen, besserer Name als GPT-4-O.
4-O. Ja, auf jeden Fall, das Video, die haben ja, Google hat ja so ein kurzes 2-Minuten-Video angeblich in One-Taker gemacht, wo sie das vorstellen. Und das ist schon beeindruckend. Dann schreibst du in den Group Check, mega cool, Jan schreibt das rein. Ich schreibe, hey, das sieht ja zehnmal besser aus als OpenAI. Also Jan aus dem Off nimmt seinen Job an und spricht ein bisschen uns auf dem Podcast. Am nächsten Morgen sehe ich, wie er gefeiert wird, höre nach und er kommt in so einem Nebensatz noch. Er gibt eine kleine Reaction auf mich und sagt, er kann nicht verstehen, wie ich das nicht sehen würde. Dass das sein Leben auf jeden Fall viel verbessern würde. Ich sehe schon, dass es natürlich einfacher ist, einfach Tabs zu wechseln auf dem Rechner und damit zu arbeiten. Aber so richtig krass ist es ja nicht. Die haben einfach nur die Webseite genommen und als App gemacht. Glaubst du wirklich, dass es... dass es ein absoluter Gamechanger ist, wenn du die eine AI-App auf deinem Rechner hast? Oder können sie den Rechner damit aushebeln? Also ist dann auf einmal die AI-App wichtiger als dein Computer?
Wichtiger als der Computer glaube ich nicht, aber du kannst schon mal den Browser aussehen. Also A würde ich immer den Menschen, die das schon anwenden, vertrauen. Wenn die dazu eine Meinung haben und sagen, das erleichtert ihr Leben, dann müsst ihr erstmal Gründe finden, warum ich ihnen das nicht glaube. Dann, glaube ich, ist der Grund, warum du das als Desktop-App machst, schon um auch Zugriff auf den Rechner und vor allem die Inhalte des Nutzers oder Nutzerinnen zu bekommen. Das heißt, Zugang zu Daten ist wichtig und damit auch Stück für Stück Gatekeeper zu umgehen. Der ultimative Gatekeeper ist natürlich das Operating System, also iOS oder Windows oder Android. Und zumindest aber aus dem Browser rauszukommen. Dann steht Google nicht mehr dazwischen. Also muss OpenAI sich nicht fragen, ob Chrome sozusagen Nutzungsdaten von OpenAI abzieht. Das ist gut. Es ist verschlüsselt. Es hat die PS-Verschlüssel, kommen nur beschränkte, so ein paar Metadaten können Sie abziehen, hoffe ich. Aber es ist ein zusätzliches Level an Unabhängigkeit und ich glaube, es hilft, wenn ich es richtig verstanden habe, den Nutzern, weil es Copy-Paste-Arbeit einfacher macht oder Arbeiten im richtigen Kontext einfacher macht. Ich kann das nachvollziehen, ehrlich gesagt. Ist jetzt nicht, dass ich mir das als erstes wünschen würde. Du hast bei Windows ja, glaube ich, den Co-Piloten Sekunde hier auch schon irgendwo eingebaut. Irgendwo ist der hier. Komisch, der nervt mich immer, wenn ich ihn nicht haben will, aber jetzt, wo ich ihn haben will, finde ich ihn nicht. Ja, ich glaube, dass wir das auf jeden Fall, also diese native Integration werden wir viel mehr sehen. Und natürlich möchte ich das so früh wie möglich machen, auch bevor das irgendwie Standard wird. Weil Microsoft wird natürlich alles mit ihrem eigenen Co-Piloten überschreiben. Das wird halt genauso wie hier mein PowerPoint-Problem, dass egal wie oft ihr definiert habt, dass ich jetzt mit OpenAI arbeite oder mit ChatGPT arbeiten möchte, wird Microsoft Co-Pilot immer dazwischen quatschen. Wie so eine kleine Klippi-Klammer und ihr besseres Ergebnis anbieten. Parallel oder irgendwie so.
Das beste Erlebnis ist auf jeden Fall, eine AI-App zu haben und nicht in jedem Produkt zu haben. Oder? Weil aktuell ist es ja so, du siehst überall, also ich möchte eher in verschiedenen Produkten den AI-Agent des einzelnen Produktes ausmachen. Und schnell mal eine Gedanken reinschreiben oder so und dann hin und her switchen.
Ja, das stimmt schon. Also wenn der den Kontext bekommt, also aus allen Anwendungen oder Applikationen die Daten rausziehen kann und darf, dann ist glaube ich ein zentraler oder genereller Agent spannender. Das Problem ist natürlich, wenn Evernote dann sagt, wir sharen unsere Daten nicht mit deinem AI-Agent oder wenn Outlook sagt, wir sharen unsere Daten nicht mit deinem AI-Agent, dann hast du wieder ein Problem. Das wird ganz lustig. Der Zugang zu Daten und Interoperabilität, das wird an Sicherheit grenzender Wahrscheinlichkeit wieder ein Thema für die EU-Kommission. um da Wettbewerbsfreiheit zu ermöglichen. Weil das Einfachste, was Microsoft ja machen könnte, ist zu sagen, aus Sicherheitsgründen sharen wir deine Outlook-Daten nicht mit irgendeinem anderen Agent.
Aber es geht ja gar nicht mehr darum. Es geht ja einfach um Screenshare. Am Ende ist OpenAI Teamviewer. Also du teilst halt deinen Bildschirm, OpenAI sieht alles, ähnlich wie jetzt Google das auch gezeigt hat mit Astra.
Aber das ist nicht genug Kontext, glaube ich. Du willst ja die Termine des letzten Jahres haben und nicht nur, was ich jetzt gerade diese Woche sehe oder so. Also klar ist, zu sehen, was der Mensch sieht, hilft. Da bin ich bei dir. Das macht es auch schon besser. Die ganzen Agenten funktionieren jetzt auch gerade so. Aber ich glaube, den Kontext zu haben, welche E-Mails du vor fünf Wochen geschrieben hast oder welche Termine du letztes Jahr gemacht hast, ist schon auch nochmal wertvoll.
Ja, und das haben wir ja gesehen bei Google I.O. jetzt. Die haben ja erklärt, dass sie AI überall einbauen. Also es ist jetzt das Zeitalter von Gemini und in alle Produkte kommt es jetzt rein. Und ein Beispiel, was sie ja gezeigt haben, war fass mir zusammen alle E-Mails, die ich von der Schule erhalten habe oder sowas. Bei Google bin ich mir nicht so ganz sicher, wie viel davon wirklich wir dieses Jahr schon erleben werden. Wie viel davon einfach Storytelling ist. Mittlerweile erinnert mich es so ein bisschen an diese Prototyp-Autos, die immer auf irgendwelchen Automessen vorgestellt worden sind vor Jahren, die dann vielleicht in zwei Jahren mal so ähnlich rauskommen.
Aber es wurde auch bisher immer eingelöst, oder? Also klar zeigen sie so ein bisschen die Zukunft, weil sie auch ein bisschen hintendran... weiß nicht, vielleicht ihn auch wieder OpenAI ein bisschen Wind aus den Segeln genommen hat. Vielleicht sollte Astra das Hauptthema werden, dann konnte man Astra nicht so groß machen, weil das im Vergleich zu OpenAI wieder nicht mehr so toll ist. Aber ich glaube schon, dass Google ein paar, also den einen großen Durchbruch gab es glaube ich nicht. Oder beziehungsweise am ehesten würde ich sagen, dass 2 Millionen Context-Window bei Gemini Pro, also 2 Millionen Token ist schon, das ist 8 mal Krieg und Frieden, Leotards Toys, Krieg und Frieden. Zwischenspeicher, das ist schon der größte Kontext von den kommerziellen Modellen.
Das bedeutet, dass du sehr viele Daten reinschieben kannst. Das Beispiel war irgendwie ein PDF mit 1500 Seiten. Kannst du da reinschieben und das analysieren lassen oder sowas. Aber auch das ist doch eigentlich nur... Eine GPU-Leistung oder so? Also ist das nicht einfach nur, wir erhöhen, also wir machen das Rohr irgendwie größer?
Das ist so ein bisschen wie, ich gebe dem Gehirn oder dem Modell mehr kurzfristige Memory, wenn du so willst. Und in dir halt hauptsächlich mehr Kontext, also mehr Informationen, die jetzt für genau die Entscheidung oder Ausgabe wichtig sind. Das ist erstmal nur eine Materialschlacht, das stimmt schon, glaube ich. Aber eine entscheidende, weil das ist für die Qualität. Also zum Beispiel, wenn du, denk mal an Software-Code, wie viel vom gesamten Code ich hochladen kann in den Speicher, entscheidet schon so ein bisschen damit, wie gut die Qualität, also wie gut das Modell jetzt zum Beispiel versteht, welchen Code ich schon geschrieben habe und welche Anwendungen ich noch habe und welches System ich noch benutze. Ich glaube schon, dass es viele Anwendungsfälle gibt, wo das relevant ist. Genau, dann wird alles multimodal, das haben wir auch gelernt. Astra hast du erzählt. Gemini 1.5 Flash ist schneller und effizienter. Das ist ja genau, was ich schon erwähnt habe, dass alle da in die Richtung gehen wird. Ihr Veo-Modell, das haben wir auch das letzte Mal schon geteasert.
Also Sora, man kann Videos jetzt machen.
Genau, Multimodal to Video, also du kannst verschiedene Sachen eingeben, aber es kommt am Ende Video raus. Dann die neueste TPU-Generation, habe ich auch schon erwähnt, Trillium, 4,7 mal schneller als die vorherige. Ja, dann was Sie in Search mit AI machen, finde ich immer noch underwhelming, weil es schiebt vor allem noch mehr organische Ergebnisse noch weiter runter in der Suche.
Da, ehrlich gesagt, verstehe ich nicht, wieso Sie nicht wesentlich aggressiver sind. Sagen Sie zum Beispiel, bis Ende 2024 wird AI-Overviews eine von den zwei Milliarden Leuten erreichen. Also... Wieso gehen Sie da nicht mehr rein? Machen Sie es nicht, weil Sie Angst haben, dass Sie Umsatz verlieren? Oder schaffen Sie es einfach, das Produkt nicht gut genug zu machen?
Ich glaube, Kombi aus vielem. Also Asen vorsichtig den Fuß ins Wasser halten, dann Umsatz nicht zu riskieren. Mischung aus verschiedenen Effekten.
Und dann gibt es so zwei Beispiele, die ich interessant fand. Das eine ist, zeigen sie so einen Plattenspieler mit einem Video, also Telefonvideo, hey, wieso bleibt die Nadel nicht auf der Platte? Und dann gibt es so ein AI-Overview, also ein Text. Und das andere ist ein Pickleball-Beispiel. Sagen sie so, hey, irgendwie Gemini ist auf dem Telefon und du wirst von einem Freund gefragt, ob du nicht am Wochenende Pickleball spielen möchtest. Und guckst dir dann ein Video an und kannst da drauf Fragen stellen. Also die richtig krasse Erfahrung wäre doch eigentlich, dass dann ein Video generiert wird. wie es noch besser wird. Also jetzt zum Beispiel bei dem Plattenspieler war dann so ein Text, hey, es liegt vielleicht da und daran, aber eigentlich müsste ja dann aus Magie ein Video entstehen, das dir zeigt, hey, nimm den, ja, tu die Nadel dahin oder stell das so um oder so funktioniert die Pickleball-Regel. Also es ist gut, ich finde es der gute erste Schritt, aber das finale Produkt dauert wahrscheinlich noch länger und braucht auch viel, viel mehr Rechenleistung wieder.
Ja genau, also A, du bewertest was wieder sozusagen auf der 0.9 Version und nimmst an, dass es in den nächsten zwei Jahren überhaupt keinen Fortschritt geben wird. Da unterstelle ich jetzt mal ganz böse. Und ich glaube sozusagen, du siehst halt die Beta-Version. Und warum das so ist, ist ja auch ganz klar. Ein Video zu generieren ist teurer, aber vor allen Dingen dauert es deutlich länger. Und die Geschwindigkeit der Antwort ist viel wichtiger. Also, dass du dann in Zukunft einen Generate Instructions-Button hast drunter, der dir ein Video macht. Ich meine, so wird Handwerken in Zukunft funktionieren, oder? Du beschreibst ein Problem und jemand generiert dir ein Video, wie es zu lösen ist. Dein Geschirrspüler zeigt Fehler F16 an. Und dann steht hier, so nimmst du das Flusensieb unten oder das Restesieb unten raus und so reinigst du das. Da muss irgendwo Glas im kleinen Rädchen sein da unten. Und wenn das raus ist, das wird schon genauso funktionieren. Aber da gibt es halt Zwischenstabs. Latenz ist eins, eben dass nichts schnell genug geht. Und das andere ist, solange Leute damit rumspielen, willst du halt auch nicht ständig die Videos generieren. Vielleicht, wenn sie dann gar nicht genutzt werden. Aber wie gesagt, Google hat 20 Jahre gebraucht, um die Search Experience so einigermaßen hinzubekommen. Sie werden in zwei Jahren, glaube ich, deutlich mehr schaffen. Es wird aber genau dahin gehen, wie du das beschreibst.
Dann lass uns in den goldenen letzten 15 Minuten noch ein, zwei wichtige Themen machen, die hier noch auf unserem Trello-Wort stehen.
Die schaffen wir alle noch. Also, kurze Note. Wir machen erstmal eine schnelle News-Section hier. Wir haben das halb verpasst. Ich hatte es mir lustigerweise per E-Mail geschickt und dann doch vergessen zu erwähnen letztes Mal. Und zwar wurde Squarespace, das ist ein Hosting- und Website-Bildersystem, für 6,9 Milliarden private genommen, also von der Börse runtergekauft, von Pamira und ihren Alt-Investoren General Atlantic und Accelity nochmal nachgelegt, also auch in der zukünftigen Gesellschaft dann nochmal signifikant beteiligt werden wollen. Können wir mal gucken kurz im Sheet, was das ungefähr für eine Bewertung entspricht. Es kommt hier relativ viel vor. Also, wir machen eine Milliarde Umsatz. Das heißt, es wäre siebenmal Umsatz. Und das Net Income ist noch negativ. Wir können mal Free Cashflow schauen. Free Cashflow ist 220 im Jahr. Dann wären das 35. 35 mal Free Cashflow. Bin gespannt, was Tamara damit machen kann. Für 35 Mal Free Cashflow finde ich gar nicht so günstig, ehrlich gesagt. Aber wir wissen aus der Vergangenheit, dass der Hosting-Sektor, wie gesagt, eine Mischung von Website-Builder-Software und Hosting, dass der immer Private-Equity-Interesse so ein bisschen hatte, weil es sehr berechenbar ist. Einfach, wenn man die Kohorten der Nutzer gut einschätzen kann, kann man damit sehr gut rechnen. Sehr Cashflow-positiv in der Regel. Insofern macht es Sinn, ob der Preis jetzt der richtige ist. Das war irgendwie 40 Prozent im letzten Kurs. 29% über dem letzten Kurs. Bin ich gespannt, aber vielleicht kommt ja auch nochmal eine Zeit mit höheren Multiples, dann kriegt man das wieder rein. Ist auf jeden Fall, ich würde sagen, edgy bepreist, aber die werden schon wissen, wo sie das raus, also ob die nochmal Kosten rausnehmen oder glauben, dass man irgendwo besonders wachsen kann oder eine andere Hypothese haben, werden wir dann mit der Zeit erfahren. Ähm, Genau, du hattest das letzte Mal gefragt, bin ich der Antwort schuldig geblieben, das Wachstum von Home2Go, wie viel davon organisch ist und wie viel sozusagen anorganisch und es ist, Roughly halb-halb, kann man sagen. Also es gibt Folie, kann man sich Folie 3 in der Präsentation anschauen. Da sieht man, dass so 45% vielleicht organisches Wachstum sind vom Gesamtwachstum. Das ist nur kurz der Service-Hinweis. Die Earnings verschiebe ich mal nach hinten. Dann bei den News. Es gibt zwei News von Dachraum-Fintechs. Das eine ist Bitpanda. Wir sitzen in Wien, glaube ich. Die haben Zahlen bekannt gegeben für letztes Jahr unter anderem und haben letztes Jahr 148 Millionen Umsatz gemacht und damit 13,6 Millionen Vorsteuereinkommen. nachdem sie minus 130 Millionen Verlust in 2022 gemacht haben. Also 2023 profitabel mit 9% Vorsteuermarge. Und jetzt im Q1 haben sie angeblich aber auch schon 100 Millionen Verlust. Umsatz in den ersten drei Monaten von 24 gemacht. Also schon zwei Drittel des Jahres Umsatz von 23 drin. Also man kann davon ausgehen, dass sie ja wieder profitabel sein würden. Also ein Fintech, was es zumindest jetzt, man muss sagen natürlich, dass es sehr mit dem Kryptomarkt insgesamt dann korreliert. Der Operating Leverage von Brokerage kennen wir. Sozusagen würde Bitcoin sich halbieren, wären sie wahrscheinlich wieder im Negativbereich, aber im Moment sieht es wirklich ganz gut aus und man muss davon ausgehen, dass 24 jetzt deutlich besser wird beim aktuellen Bitcoin-Kurs unter Euphorie. Genau, ein guter Gips. Das gleiche, ebenfalls gute Ergebnisse von Raisin. Also Raisin ist Weltspar, wo man sein Geld auf verschiedene Banken zinsoptimal und sicherheitsoptimal, also geht um Eigenkapital, wie heißt denn das, dieser Sicherungsfonds. Das bietet Raisin as Service an, hat damit ein sehr gutes Ergebnis erzielt und zwar Umsatz verdoppelt auf fast 160 Millionen. Hängt natürlich daran, dass es jetzt endlich wieder Zinsen gibt. Ich glaube, was total gesund ist, ist so ein Modell aufzubauen in einer Zeit ohne Zinsen, wo es wirklich maximalen Gegenwind hat und super schwer ist, überhaupt Geld zu machen. Und dann, wenn jetzt Zinsen sozusagen als warmer Regen hinzukommen, dann wird es natürlich super spannend. Und so haben auch die 20 Millionen, also mehr als 10 Prozent EBITDA-Marge gemacht nach dem Verlust im Vorjahr. Also auch ein weiteres Fintech, was es, ich sage jetzt mal, geschafft hat, positiv zu sein. Okay, wie machen wir das? Ich frage mal ganz kurz den Sekretär.
Normalerweise hört Pepp ja nie auf zu reden, aber jetzt hat er einen Termin. Das ist gute News für mich. Ich kann aufhören. Ich wünsche euch einen schönen Samstag. Wir hören uns wieder Mittwoch. Da werden natürlich ein paar Earnings nachgeholt. Habt ein schönes Wochenende.
Bis dann. Peace. D-D-D-DJ Austin.