Doppelgänger Folge #236 vom 31. März 2023

🎙️Live Podcast WHU 🏆 AI Gewinner & Verlierer | Italien sperrt ChatGPT | Impact Gründung | Öffentlichkeitsarbeit

Wir sprechen live beim SensAbility WHU Impact Summit und beantworten, was wir (nicht) gründen würden. Italien sperrt ChatGPT und wir beantworten viele Fragen zu AI. Wie wichtig ist Öffentlichkeitsarbeit bei GründerInnen?

Philipp Glöckler (https://www.linkedin.com/in/philippgloeckler/) und Philipp Klöckner (https://twitter.com/pip_net) sprechen heute über:

(00:02:20) Impact Gründen

(00:11:30) Karriere Tipps von Arbeitslosen

(00:22:45) Italien verbietet GPT

(00:31:45) AI Fragen

(00:35:45) Öffentlichkeitsarbeit bei GründerInnen

(00:44:00) Hyperpersonalisierung

(00:47:10) Winners and Losers of AI

Shownotes:

Podcast Empfehlungen:

Cashburners: die Gorillas-Story von der Gründerszene

Lex Fridman Podcast #367 with Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI

Gloecklers Pickleball Community https://piqqle.com/

Doppelgänger Tech Talk Podcast

Während OMR und Finance Forward: https://www.doppelgaenger.io/omr/

Sheet https://doppelgaenger.io/sheet/

Disclaimer https://www.doppelgaenger.io/disclaimer/

Passionfroot Storefront www.passionfroot.xyz/doppelgaenger

Post Production by Jan Wagener https://www.linkedin.com/in/jan-wagener-49270018b/

Aktuelle Doppelgänger Werbepartner https://lollipod.de/sn/doppelgaenger-werbung

Ein Klick auf die Textabschnitte spielt diese ab. Du kannst auch mit dem Player umherspringen.

Willkommen zum Doppelgänger-Tech-Talk-Podcast, Folge 236 und es ist kein April-Joke. Wir sind tatsächlich in der WHU. Sensibility, Live-Podcast an alle Hörer, die uns nur hören und nicht sehen. Entschuldigung, es wird vielleicht eine chaotische Folge. Vorher kleine Umfrage. Wer hört ab und zu Doppelgänger? Pip, du kennst dich mit Zahlen aus. Was denkst du, wie viele sind das?
Ein knappes Drittel, würde ich sagen. Viertel Drittel. Wer hört OMR-Podcast?
Keine einzige Ahnung.
Falls Westermeyer zuhört, hat sich keiner gemeldet.
Ich war vor 20 Jahren mal hier beim Tag der offenen Tür. Für mich hat es nicht gereicht.
Erklär mal.
Ein Schulfreund von mir meinte, BWL wäre eine gute Sache und ich war derjenige mit dem Führerschein. Und dann haben wir eine Tour gemacht, waren einmal hier beim Tag der offenen Tür. Er hat sich hier alles angehört. Ich war irgendwie in einer Großstadt. Aber die Party war ganz gut. Dann waren wir kurz später bei dieser anderen Uni, EBS. Da hat er sich auch alles angehört. Ich war wieder in der Stadt und auf der Party. Und dann haben wir uns eigentlich überall beworben. Er ist dann nach St. Gallen gegangen. Und als ich erfahren habe, dass es nur einen Tag gibt, an dem man diesen Test machen kann, und das ausgerechnet der Test war, wo ich Prom hatte, und er mit meinen Freunden feiern wollte, als irgendwas in meiner Karriere zu machen, habe ich mich dann für die EBS entschieden. Und tatsächlich da bestanden und da durfte ich dann drei Jahre Bachelor machen. Und falls heute Abend irgendwelche Schilder weg sind, ich war es nicht.
Er hat aber schon einen Flaschenöffner geklaut.
Genau, einen habe ich schon. Pip würde auch gerne noch einen haben. Und ja, Merch sammeln wir auf jeden Fall heute ein. Lasst uns über ChatGBT sprechen. Wer von euch nutzt ChatGBT, um den Professor, die Professorin auszutricksen? Alle, mehr als Doppelgängerhörer. Wer, der die Hand hochgehalten hat, würde gerne in die Unternehmensberatung und Investmentbanking gehen? Nicht so viele, krass. Wer will Unternehmer, Unternehmerin werden? Wer will die Welt retten? Äh, noch nicht ganz so viele.
Wer glaubt, dass man das verbinden kann? Ich habe eine Frage an dich. Und zwar, wenn du, du kriegst 100 Millionen, kannst du eine Impact-Sache machen? Was würdest du tun, um maximalen Impact zu haben damit?
Maximalen Impact oder maximalen Spaß?
Impact.
Also Spaß. Ich würde versuchen, urban irgendwas zu machen. Am liebsten würde ich so, ich würde die Vorzeigestadt in Deutschland versuchen zu bauen. Oder Stadt, Stadt ist wahrscheinlich ein bisschen zu...
Berlin meinst du?
Naja, so ein Block von Berlin, Silos Block und den grün. Also mit Solar, begrün, Autos von den Parkplätzen weg, irgendwie interaktiv. So, dass alle, egal welches Einkommen, dort ein ähnliches, gleiches, gutes Leben haben. Das ist ja mein 100 Millionen Experiment.
Und was wären so Features von dem Block quasi?
Energieautark, Mobilitätautark.
Da haben wir gerade dagegen gestimmt. Wir würden nicht ausreichend dafür...
Bier oder Porsche? Also, ja, aber das ist wahrscheinlich in Deutschland überhaupt nicht... Oder vielleicht geht es nicht in der Großstadt. Vielleicht geht es in eine kleinere Stadt, in der man das machen kann. Also stell dir vor eine halbe Million. Wir reden ja heute hier so ein bisschen über Nachhaltigkeit, dass die zwei Tage, die wir hier sind. Aber gefühlt muss man hier mit dem Auto hinfahren. Also eigentlich, wenn man jetzt sagt, man will Diversity und Sustainability sind die Themen für die nächsten 10, 20, 100 Jahre. Dann kannst du doch eigentlich eine Uni an einem Remote-Ort, wo das Epizentrum des Denkens, des Schaffens herrscht, kannst du hier eigentlich nicht mehr hinbauen. Also vielleicht sollte man die 100 Millionen auch nehmen, um die Uni in die Stadt zu ziehen. Man könnte ja Amazon-Style ausschreiben, WHU, an alle Städte, ab 500.000 Einwohner, bewerbt uns, wir ziehen um.
Wie viele Bewerbungen erwartest du denn?
Also in einer Stadt wie Düsseldorf würde hier keiner auffallen. Also je urbaner es ist, umso weniger würde man hier auffallen. Wie viel Prozent der Studenten haben ein Auto? 50 Prozent? Weniger? Mehr? Hier wird weniger gesagt? Ich hätte gedacht es wären 80 Prozent.
Wie viele haben ein Flugzeug?
Helis lassen wir.
Wir sind gestern schon angereist und haben uns die Umgebung angeschaut. Was ist bei dir hängen geblieben von wunderschönem Koblenz?
Nette Leute, gutes Essen, leckerer Wein.
Was sind die drei großen Bs nochmal?
Fakten musst du rausbringen.
Wir sind gestern spazieren gegangen, wir wollten natürlich eilig mit der Bahn anreisen. Es ist was dazwischen gekommen, dass wir ab Köln-Deutz mit dem Auto fahren mussten. Das haben wir dann bei einer Mietwagenfirma abgegeben und sind dann durch Lützl, heißt das Lützl? Über Lützl, so zwischen Gieter Bahnhof und Bundeswehr Kaserne durchgegangen. Dann kamen wir zum Bordell und dann habe ich ihn zum deutschen Eck geführt, damit er ein bisschen Kultur kriegt und noch was schönes sieht.
Zwischendurch meintest du, ob ich meine Podcast-Kopfhörer hätte, dann würden die Leute denken, ich wäre dein Security.
Was haben wir noch gesehen? Achso, ein Werbeplakat. Hat irgendjemand Geld bei den Bauligs ausgegeben hier? Herr Wink, es ist ein bisschen verwunderlich, dass Menschen noch ihre Kinder in diese Stadt schicken, wenn du so ein Bundeswehr-BWL-Studenten und Bauligs hast. In Berlin kann man so am Trinkwasser messen, wie viel Koks konsumiert wird. Ich glaube hier ist sehr Testosteron getränkt wahrscheinlich. Das Trinkwasser. Das Bundesarchiv gibt es, glaube ich, noch. Und es war bis in die 80er die größte Garnisonstadt Europas, habe ich gelesen.
Aber was ist denn deine 100 Millionen Idee? Wie würde Pip die Welt retten, wenn er endlich mal was macht?
Das kommt darauf an, ob man an eine rasante Entwicklung der AI glaubt oder nicht. Welche Szenarien möchtest du wählen? Ich habe zwei Ideen, je nachdem wie schnell die AI ist.
Erstmal die dumme Idee, also mit AI und dann die schlaue ohne AI.
Mit AI würde ich versuchen eine AI dazu bringen, ein Lebewesen zu entwickeln, was Tim hat vorhin gesagt, natural carbon capture. Also ich würde vermuten, es würde eine Alge oder Flecht oder so werden. Aber ich würde quasi, wir können es natürlich selber versuchen zu züchten oder zusammenzuschneiden per CRISPR. Aber es wäre wahrscheinlich schlau eine AI simulieren zu lassen, was das effizienteste Lebewesen mit dem kleinsten negativen Impact auf andere Lebewesen wäre. Das kann man ganz gut simulieren wahrscheinlich. Ich vermute, es wäre eine Alge, die Sonnenlicht und CO2 aufnehmen könnte. Und dann entweder können wir sie sogar essen. Das wäre sozusagen noch besser. Ansonsten wäre es auch geil, wenn sie einfach sich auf dem Meeresboden absenkt und damit CO2 bindet. Das würde ich versuchen, eine AI zu bauen, die mir das zurecht schneidet quasi mit einer Genschere mit CRISPR. Also das perfekte CO2 absorbierende Tierchen zu bauen. Sind Algentiere, nee Quatsch, Pflanze, also Organismus würde ich sagen. Das sozusagen, falls wir AI benutzen würden.
Und ohne AI?
Ohne AI, ich glaube sozusagen abhandensein von Superintelligenz, wäre es wahrscheinlich schlau, so viel wie möglich der menschlichen Intelligenz zu nutzen. So ab einem IQ von 145 hat man so einen Nobelpreisträger Niveau.
Gut, da bin ich raus.
Da bist du gesichert raus. Welchen Beruf haben die meisten Menschen, die dieses Potenzial haben, oder welchen Beruf üben die meisten Menschen, die dieses Potenzial haben, im Moment aus? Wahrscheinlich Physiker, Professor. Das wäre das Vorteil, dass sie irgendwie im Bundesarchiv arbeiten oder so. Aber sie sind, weiß jemand die Antwort? Oder hat ein educated guess? Also höchstwahrscheinlich sind sie Bauer. Das liegt einfach daran, dass Intelligenz vollkommen gleich verteilt ist auf der Welt, unter Völkern, wie auch immer. Mit einer Ausnahme, dass Unterernährung eine Rolle spielt. Wenn man nicht genug isst, kann sich das Gehirn nicht entwickeln. Aber ansonsten, solange man genug zu essen bekommt, ist die Intelligenz natürlich auf allen Kontinenten vollkommen gleich verteilt. Und weil in Asien und Afrika einfach die Mehrheit der Bevölkerung immer noch damit beschäftigt ist, sich selbst über Agrarwirtschaft zu versorgen, gibt es höchstwahrscheinlich Nobelpreisträger, Potenzialmenschen, die dort gerade fischen, Reis anbauen oder auf Bäumen Kokosnüsse runterholen. Das ist eigentlich eine massive Verschwendung. Wenn wir überlegen, wir brauchen krasse Durchbrüche in der Physik, Chemie, vielleicht in der Nuklearkraft usw., dann brauchen wir eigentlich mehr Nobelpreisträger und sollten die entsprechend fördern. Das heißt, ich glaube es wäre mega schlau, eine Art von Mobile Game oder so zu bauen, das sehr gut auf rohe Intelligenz testet. Ich will nicht sagen, dass Intelligenz das einzig Wichtige ist im Leben oder so, aber um wirklich schwere Probleme zu lösen, ist es nun mal stark korreliert. Es gibt tausend andere Traits und Skills, die unheimlich wichtig sind. Aber um wirklich schwere physikalische Probleme zu lösen, ist Intelligenz schon eine gute Voraussetzung. Ein Telefon haben diese Leute interessanterweise fast alle und damit könnte man theoretisch über ein schlau gemachtes Spiel Intelligenz testen. Und wenn man intelligente Menschen oder hyperintelligente Menschen identifiziert hat, sollten die wahrscheinlich an den besten Hochschulen gefördert werden, sodass die Menschheit ihr gesamtes Potenzial optimal nutzen kann, um schneller voranzuschreiten bei der Lösung der erheblichen Probleme, die wir gerade haben. Warum macht man das nicht einfach? Warum legt man nicht einfach los? Ich glaube, das ist natürlich kulturell unheimlich schwer. Also man würde diese Menschen, oft Kinder, ihren Familien entreißen, was wiederum für die emotionale Entwicklung wahrscheinlich nicht gut ist. Das heißt, man kann nicht nur die Menschen ablösen, indem man ihren Familien Geld gibt, sondern man muss eigentlich die Familie mitnehmen oder fördern oder vor Ort Förderschulen bauen. Es ist davon auszugehen, dass nicht alle Länder, in denen diese Menschen leben, begeistert sind, wenn wir diese Menschen nach unseren westlichen Moralvorstellungen erziehen, was, glaube ich, fair ist. Das ist so der Spannungsraum, warum es nicht so einfach ist. Aber ich glaube, am Ende hat es einen riesigen Knock-on- oder Trickle-down-Effekt, weil diese Menschen werden andere Sachen, idealerweise entwickeln sie den Wunsch, das Gleiche anderen Menschen zu ermöglichen, was ihnen ermöglicht wurde. Andererseits können sie zu Durchbrüchen eben Physik, Medizin, you name it, anything entwickeln. Und ich glaube, vom Impact her stelle ich mir vor, dass das das Maximale wäre. Das Problem ist, es dauert natürlich sehr lange. Es hat keinen immediate Impact, wenn du so willst. Sondern es ist eher etwas, was ich über Dekaden, idealerweise, immer weiter verbreiten würde. Das sind meine zwei Optionen.
Eine Kategorie in unserem Podcast ist auch ein bisschen Karriere-Tipps von zwei Leuten, die noch nie Karriere gemacht haben. Was würdest du denn machen, wenn du jetzt mit der Uni fertig bist?
Und gerade keinen festen Job haben.
Ja, aber wir sind Podcaster, das ist fast ein Jobtitle. Was würdest du machen, wenn du jetzt hier auf der anderen Seite sitzt, Bachelor gerade fertig, oder Bachelorarbeit jetzt schreiben musst, und Papi sagt, Junge, du musst jetzt mal langsam Geld verdienen.
Ich glaube, dass es nicht Sinn macht, mehr irgendwas zu machen oder zu gründen, was nicht im weitesten Sinne mit künstlicher Intelligenz zu tun hat, wo man das zumindest massiv einsetzt.
Der Hype nicht vorbei in sechs Monaten?
Glaube ich nicht, aber werden wir sehen. Kann man in diesem Podcast hören, wenn das ist, dann kannst du mich ausladen. Ich glaube, ich würde etwas lernen, was nichts mit Management zu tun hat, sondern was Technisches, was Biologisches, Chemisches.
Moment, lernen? Du sollst arbeiten.
Ich würde mich weitergehend qualifizieren wahrscheinlich. Wir haben schon sehr viele gute Gespräche geführt heute. Unter anderem ging es darum, ob eine Kombination, also ein großes Problem ist zum Beispiel, dass viele technisch superbegabte Leute an irgendwelchen Instituten, Helmholtz oder Max Planck oder was weiß ich, rumhängen, aber denen fehlt das BWL-Know-how. Vielen Management-Studenten, Neustudierenden fehlt eventuell das technische Know-how. Und ich glaube, die Verbindung davon ist eigentlich das Spannendste. Also was mir in meiner Karriere sehr geholfen hat, ist, dass ich einen BWL-Background habe, weil ich habe angefangen mit Suchmaschinenoptimierung. Das war damals eine sehr rare Skill vor 20 Jahren. Das konnten nicht viele Leute und die, die es gekonnt haben, waren alles eigentlich Leute aus dem technischen Hintergrund, also Programmierer oder Leute, die sich selber das beigebracht haben. Und das zu verbinden mit BWL-Skills hat es für mich eigentlich relativ einfach gemacht, schlaue ökonomische Entscheidungen zu treffen und damit sehr früh, sehr schnell Geld zu verdienen. Das heißt, ich glaube, die Verbindung von zwei Disziplinen ist unheimlich spannend. Ich glaube, dass alles, wenn der Job, an den ihr gerade denkt, wenn ihr an euren nächsten Job denkt, größtenteils in Excel und PowerPoint passiert, dann wird es den in fünf Jahren, glaube ich, nicht mehr geben. Beziehungsweise wird es wenige Leute, die das sehr, sehr, sehr gut können, da gehört ihr höchstwahrscheinlich dazu sogar. Für euch gibt es den sogar noch, aber für, wie beschreibt man das gut? Für Äpseler wird es richtig schwer. Also ich glaube, dass, man sagt immer so, die Jobs verschwinden. Das stimmt natürlich nicht, die Jobs verschwinden nicht komplett, aber die Struktur ändert sich, glaube ich, insofern, dass eine AI immer so gut sein kann, wie der relativ durchschnittliche Mensch sozusagen. Das heißt, die AI wird so gut werden wie Accenture und die oberen zehn Prozent der Mitarbeiter werden wahrscheinlich Produktivitätsmonster. Das heißt, die werden zehnmal so viel in der gleichen Zeit schaffen. Beim Programmieren sieht man das schon sehr gut. Es gibt ein Produkt, das heißt Copilot von GitHub, was eine Microsoft-Beteiligung ist. Das nutzt einfach nur eine ähnliche Technologie wie ChatGPT oder GPT4, um quasi die nächste Zeile Code oder die nächsten Tastenanschläge quasi zu erraten. Also in dem Moment, wo ich beginne, was zu programmieren, rät die Software, wie das wohl weitergeht und damit kann ich halt zwei, drei, irgendwann vielleicht zehnmal schneller programmieren. Irgendwann kann ich vielleicht nur mit Stimme programmieren und sage einfach nur noch, was ich kann. Sondern dann brauche ich immer noch hochbegabte Programmierer, die das besonders gut bedienen können. Aber die absolut durchschnittlichen, typischen Outsourcing-Programmierer, die repetitive Tasks irgendwie bauen, die werden wahrscheinlich keinen Job mehr haben. Das heißt, ich glaube, es gibt Produktivitätsmonster und Leute, die von der AI ersetzt werden. Oder anders sagt man immer gern, dass dein Job nicht von der AI ersetzt wird, sondern von jemandem, der die AI sehr gut einsetzt. Deswegen würde ich mich da, es haben sich ein paar gemeldet, wer in der Beratung arbeiten wollte. Es gibt eine lustige Webseite, die hieß mal ChatPCG, die konnte Slides automatisch bauen. Du kannst halt sagen, mach mir mal einen Slide, was die wichtigsten Initiativen wären, um CO2 zu reduzieren. Und die hat das nicht ganz so gut wie Tim, aber einigermaßen gut hinbekommen. Das wurde jetzt übrigens, ich glaube, PCG hat die, die sind Sponsor, kann man trotzdem sagen, ich glaube, PCG hat die, die heißen auf jeden Fall nicht mehr ChatPCG, sondern ChatBA jetzt. ChatBA.com, können Sie sich anschauen. Also ich würde darauf achten, dass ihr auf jeden Fall zu denen gehört, die AI anwenden. Also wenn ihr gerade nicht die Hand gehoben habt, habt ihr schon mal mit ChatGBT rumgespielt oder mit dem neuen Bing oder irgendeiner anderen Generative, einem Large Language Model, dann würde ich mir Sorgen machen. Also das Einsetzen von AI wird halt so sein, wie wir heute Excel nutzen oder wie wir E-Mail nutzen. Es wird das größte Produktivitäts-Tool sein, was darüber entscheidet, ob ihr 250.000 Euro verdient oder 50.000 Euro oder keinen Job mehr habt, glaube ich. Ich glaube trotzdem, dass Beratungen eine Zukunft haben, nämlich AI zu implementieren in Unternehmen, weil so ein Großteil der Wertschöpfung von AI wird kommen, dadurch, dass man sie in bestehende Geschäftsmodelle integriert. Also die wertvollsten Firmen, die wir sehen, werden gar nicht unbedingt Firmen sein, die selber AI-Modelle bauen, sondern die sich schlau auf bestehende Geschäftsmodelle anwenden, würde ich vermuten. Ich glaube, es gibt ein paar spannende Berufsfelder, die neu aufkommen, so Prompt Engineer oder Leute, die einfach sehr gut darin sind. Wenn ihr mit ChatsGBT rumgespielt habt, dann habt ihr wahrscheinlich irgendwie sehr einen so erzähl mir einen Witz oder baue mir irgendwas oder schreib mir einen Artikel oder so eingeben. Leute, die damit gut umgehen können. Es gibt ja Leute, die es schaffen, sozusagen mit Prompts die Dinger umzuprogrammieren oder in irgendwelche sozusagen schwarzen Modi zu wechseln, die eigentlich nicht intendiert sind. Oder die AI dazu zu bringen, auf ihrem Computer ein Virus oder sie zu überreden, auf ihrem Computer ein Virus zu installieren und so weiter. Das heißt, die Fähigkeit, sophistizierte Prompts zu schreiben, wird glaube ich super wertvoll. Es gibt Leute, die können das sehr gut mit Texteingaben und für alle anderen, also gerade für Consumer, für Konsumenten und End-User, ist es kurzfristig glaube ich super spannend, User Interfaces zu bauen auf AI. Also die es quasi einem Durchschnittsanwender erlauben, die nicht schlau genug sind, so was, also gute Prompts zu schreiben, über das Klicken von Buttons zum Beispiel oder irgend das Drehen von Rädern, AI einfacher zu nutzen. Also ein User Interface auf diese Large Language Modelle, da liegt glaube ich der größte Teil der Wertschöpfung kurzfristig. Das Problem ist, es ist langfristig komplett nutzlos, weil es keinerlei Modes hat. Also es kann morgen jemand besser bauen oder ein Konzern mit mehr Distribution, also Microsoft oder Google, die schon mehr Nutzer haben, integrieren das einfach, dann ist dein Startup von heute auf morgen wertlos. Aber kurzfristig kann es glaube ich sehr spannend sein. Hast du noch Ideen? Ansonsten, was würdest du lernen?
Was machen, wenn ich jetzt hier fertig, wenn ich jetzt 23 Jahre von der Uni fertig, würde ich wahrscheinlich noch zwei Jahre machen und irgendwie so eine Elektriker Ausbildung oder so machen. Was praktisch ist komplett anderes, wo ich das Gefühl habe, das wird in 5, 10, 20 Jahren auch gebraucht.
Kinderbetreuung, wenn du dich an die Idee fragst, welcher Job ist am wenigsten bedroht, steht da Kinderbetreuung, hart härter Kindergärtner.
Ja, das würde ich glaube ich keine zwei Wochen aushalten. Aber so Sachen zusammenschrauben, verstehen wie es funktioniert und dann kann man ja da immer noch irgendwie überlegen, okay, wie baue ich jetzt eine Firma mit 10, 20, 100 Leuten, die das machen und du hast halt dann auch das fachliche Wissen dazu. Also so ein bisschen, ich glaube es wird schon eine Chance sein jetzt, mehr und mehr praktische Sachen wieder zu lernen, zu machen und damit ein gutes Leben zu haben. Und weniger diese Business Casper, Business Travel, Powerpoint Präsentationen, die ja vielleicht für die Lebensqualität nicht ganz so gut sind.
Ja, ich glaube wichtig ist zu verstehen, dass es eben, das wird also nicht von heute auf morgen wegfallen, sondern es gibt eher so ein Divide in die Produktivitätsmonster und der Durchschnittsmensch verliert. Also ist es klar, warum der Durchschnittsmensch, also die AI lernt halt auf dem verfügbaren Wissen, das im Internet steht und wenn sie sich fragt, wer hat recht, geht sie halt irgendwie in die Konsensmeinung. Und die Konsensmeinung ist halt das absolut durchschnittliche Wissen, was jeder hat, also Common Sense könnte man auch sagen. Also alles was Common Sense ist, wird komplett wertlos. Alles was heraussticht, qualitativ oder so unique insights sind, die kein anderer hat, also Nischenwissen oder wo es ganz viele verschiedene Meinungen gibt, da werden wahrscheinlich Menschen super wichtig werden. Also ich glaube zum Beispiel, dass es ein Job werden wird, also ein Reporter müsste theoretisch ein sehr teurer Job werden, also nicht der Journalist, der es aufschreibt, sondern der, der die Wahrheit erhebt. Also Content wird unendlich viel verfasst werden, weil der super billig wird, aber um sozusagen Neues zu lernen, müssen ja neue Fakten entstehen und diese Fakten muss ja irgendjemand aufschreiben. Das ist typischerweise was ein Reporter gemacht hat, der geht irgendwo hin und sagt, da ist jemand umgefallen oder hat jemand ein Fußballspiel gewonnen und das wären quasi die Orakel, die die AI füttern. Das heißt, theoretisch müsste das sehr wertvoll werden. Es wird nur ganz anders verwertet als heute, aber eigentlich müssten die großen Konzerne, Leute bezahlen dafür, die Wahrheit zu berichten, damit die Modelle nicht aus dem Output anderer Modelle lernen. Umso wichtiger wird, also eine andere Unterscheidung ist, es wird glaube ich super wichtig, jemand mit Autorität zu sein, also einen Namen oder eine Brand zu haben. Es gibt Leute, denen das furchtbar gut liegt, es gibt Leute, denen das gar nicht liegt, aber ich glaube Fakt ist, dass die AI wird an irgendeinem Merkmal versuchen, wie originell oder originär oder authentisch, autoritär ein Contentstück ist und dabei zählt vor allen Dingen, sozusagen Authorship würde man das bei Google nennen, also wer das verfasst hat.
Bedeutet das jetzt, dass jetzt hier jeder, jede Influencer, Podcasterin, Creatorin werden soll?
Ich glaube, das ist, ich mag mich irren, es kann alles, es entwickelt sich gerade so schnell, es kann alles altern wie Milch natürlich, aber ich glaube, dass das kurz- bis mittelfristig sehr wichtig ist. Ein gutes Beispiel, ich habe 20 Jahre relativ hart gearbeitet, um so 20% meiner Reputation aufzubauen und dann habe ich ein paar Podcast-Episoden mit dem Typen gemacht und das hat die anderen 80% aufgebaut. Ich habe das gleiche Leben gelebt vorher, genauso hart gearbeitet und nur durch den Podcast baut sich was komplett anderes auf. Das wird noch stärker werden in der Zukunft, glaube ich.
Es gibt schon einen kleinen Unterschied, vor ein paar Jahren warst du fachlicher noch mehr drin.
Das stimmt, tatsächlich war ich da sogar besser, wenn man 100% jetzt, sagen wir philosophisch rum über Sachen und dann eine strategische Beratung.
Wie sieht es aus mit dem Mikrofon? Gibt es 1, 2, 24 Fragen? Da oben gibt es zwei Mikrofone.
Wir Deutschen sind ja dafür bekannt, dass wir relativ kritisch auf neue Technologien, neue Entwicklungen gucken. Jetzt hat Italien heute den ersten Schritt gemacht und Chatty BT bis auf weiteres verboten. Würdet ihr sagen, dass wir vielleicht ein bisschen zu blauäugig auf künstliche Intelligenz schauen? Die haben das generell verboten? Ja, bis auf weiteres, wegen Datenschutz kam heute bei Welt. Die haben jetzt 20 Tage Zeit Änderungen vorzunehmen und sonst müssen sie 20 Millionen Strafe zahlen. Das ist eine gute Frage schon mal. Ich glaube, dass ein großer Teil der Bevölkerung auf jeden Fall zu blauäugig ist. Ich glaube jeder, selbst die Leute, die daran arbeiten, sagen eigentlich, sie sind scared as fuck. Das Problem ist ja, man kann das so gut regulieren, wie man will und versuchen dem Grenzen zu setzen und irgendwelche Totermannschalter einbauen und was weiß ich. Aber du brauchst ja nur noch einen Mensch, der das sozusagen auf seinem eigenen Rechner installiert oder in seinem eigenen Netzwerk und sagt, ich programmiere da ein paar Schranken raus. Der kann schon relativ viel Schaden damit anrichten. Das heißt, einerseits finde ich, das muss reguliert werden, weil wir es im Moment glaube ich, haben wir es noch halbwegs unter Kontrolle. Aber es wird komplett, ich weiß nicht, ob die Menschen in der Lage sein werden, zu erkennen, wann wir die Kontrolle verlieren. Also wann, im Moment fühlt es sich ein bisschen scary an, manchmal fühlen wir uns verarscht, das redet mit mir, dann löscht es auf einmal was, weil es gemerkt hat, es hat etwas Falsches gesagt. Es fühlt sich schon sehr menschlich an.
Aber der CEO und die CTO, die sind doch so naber, das sind doch so nett, da kann doch gar nichts Böses passieren.
Ich glaube, die wurden sehr gut geschult darauf, naber und nicht scary zu wirken. Aber sie sagen ja selber, es gibt niemanden mehr, der diese Gefahr leugnet, insbesondere die Leute, die daran arbeiten. Die sagen alle, 50% der Arbeit ist das zu bauen und 50% ist das zu contain, das Risiko zu contain und sicherzustellen, dass wir diese Technologie beherrschen. Würdest du es verbieten?
Wenn Olaf jetzt anruft und sagt, Pipp, du hast ja mit Google da schon mal dich ein bisschen auseinandergesetzt.
Ich glaube, es gibt zwei Ansätze. Du könntest sagen, wir arbeiten damit nur unter Laborbedingungen. Also wir haben geschlossenes Kreislauf, das Labor hat nach außen keine Netzwerkverbindungen zum Rest des Internets usw.
So wie Corona.
Genau, und dann gibt es ein Lab-Leak, weil jemand einen USB-Stick mit nach Hause genommen hat. Aber das wäre eine Möglichkeit. OpenAI ist jetzt einen anderen Weg gegangen. Sie sagen, we test it in public und jeder kann dabei zuschauen und das schafft Vertrauen. Aber das heißt halt auch, dass wir eventuell so dem Verderben ins Auge sehen und einfach rumspielen damit. Und ich glaube, das Hauptproblem ist tatsächlich, dass im Moment gibt es schon ganz viele Leute, die sagen, das ist jetzt schon super gefährlich, wir müssen es sofort verbieten. Ich glaube, das ist Quatsch. Im Moment ist das noch sehr gut kontrollierbar. Ich bin mir sehr sicher, dass es sehr schnell zu einem Stadium kommen kann, wo es nicht mehr kontrollierbar ist. Und was ich glaube, ist, dass wir nicht erkennen können, wann wir über diese Grenze übertreten. Der Turing-Test ist ja nicht mehr der Test dafür. Also Turing ist sozusagen, wann ein Mensch nicht mehr erkennt, dass er mit einer Maschine spricht. Ich weiß auch nicht, ob man es komplett, also würden wir jetzt sagen, wir verbieten das bis auf weiteres, bis wir es besser verstehen. Dann lassen wir den größten Produktivitätshebel, den die Menschheit erfunden hat, nach der Nutzung von fossilen Energien wahrscheinlich. Also nutzen wir ihn einfach nicht. Und das wäre, glaube ich, auch blöd. Das ist schon super schwer. Aber egal, was wir sagen, ich glaube, es wird sich so schnell entwickeln, dass man hat ja beim Internet schon gemerkt, dass Politik und der politische Apparat und Regulierungsapparat überhaupt nicht schnell genug ist. Also wir führen jetzt noch Antitrust, Tim hat es vorhin erwähnt, im Suchmaschinenbereich gibt es unheimlich viele Antitrust-Themen, bei Amazon, bei Facebook, was weiß ich. Wir führen jetzt Verfahren, die auf Marktmachtmissbrauch von Google von 2011 beruhen. Elf Jahre später. Das ist noch nicht höchsterrichterlich gesettet. Das war übrigens das einzige Mal, dass ich in Koblenz, so was mitkriege, ich war schon mal in Koblenz, ich war auch mal in Koblenz, als ich von Luxemburg zurückkam aus dem EUG-Verfahren. Auf jeden Fall, vielleicht ist deswegen auch sogar der richtige Weg zu sagen, wir stoppen es jetzt sofort, weil anders kommen wir nicht hinterher. Aber sich dieses Tools zu berauben, ist halt auch blöd. Krasser Zielkonflikt.
Stell dir mal vor, Europa verpünktet ist.
Wir können abstimmen, Sekunde, wir stimmen ab. Und wir bewerten es überhaupt nicht. Wer, und wir haben noch nicht so viel gesagt, wen das wirklich interessiert, es gibt ein gutes Interview von Lex Friedman mit Sam Altman, das ist der Gründer von OpenAI, das hilft bei der Einordnung ein bisschen. Aber wer ist dafür, das sicherheitshalber erstmal zu verbieten? Das heißt nicht für immer, aber bis wir es beherrschen oder bis wir es besser verstehen. Hand hoch.
Niemand. Keiner hat Bock mehr Powerpoint-Präsentationen zu machen.
Doch, zwei, eins, zwei sehe ich. Wer findet, wir sollten maximal davon Gebrauch machen, in Public testen, jeder sollte damit rumspielen, jeder sollte sein eigenes Modell haben dürfen? Ehrlich gesagt. Wer ist noch wach? Die Opportunisten.
Aber was würde denn passieren, wenn Europa es verbietet und Amerika lässt es weiter laufen? Dann nimmt man uns ja eigentlich unsere komplette Intelligenz weg.
Ja.
Das ist ja nicht so wie TikTok verbieten oder Social Media verbieten, sondern wenn die einen damit arbeiten können, die anderen nicht, dann ist man ja eigentlich überhaupt nicht mehr konkurrenzfähig.
Ja, das ist die andere Frage. Also macht das, das ist so komplex diese Frage, macht es überhaupt Sinn, das in einem Land zu verbieten? Also ich meine, du lernst ja trotzdem aus den Ressourcen, die Texte oder das verschriftliche Wissen von Italien ist ja längst schon dort eingeflossen. Ob die Italiener das jetzt selber benutzen dürfen oder nicht, vielleicht macht das aus datenschutzrechtlichen Gründen Sinn, aber das bringt auf jeden Fall nichts dabei, die Hauptgefahr, die ich sehe, einzuschränken, würde ich behaupten.
Weitere Fragen?
Ja, vielleicht auch ein bisschen mit Referenz zu der Lex Friedman-Sam-Eldman-Folge. Glaubt ihr, dass das Zeitalter von Chat-GPT und AI generell zu so einer Renaissance, der so wieder philosophisch und geisteswissenschaftlicheren Berufe führen könnte? Also gerade was so in Richtung Behavioural Finance, Monetary Philosophy etc. geht? Also prinzipiell wird alles wertvoller, glaube ich, was eine AI eben nicht kann. Ich glaube, gewisse Geisteswissenschaften oder so Behavioural Science gehört dazu. Viele Offline-Erlebnisse gehören dazu. Also eine Sache, woran ich sehr stark glaube, ist, dass wir über alle Messaging-Kanäle so mit Content überflutet werden. Also es werden tausende von Bots euch Linkedin-Anfragen schreiben, E-Mail-Spam wird noch besser und noch mehr geben. Ich glaube auch, dass man eigentlich eine Authentifizierung braucht, also dass jeder Mensch eigentlich Nachrichten mehr oder weniger handschriftlich mit einem biometrischen Merkmal, also Fingerabdruck oder Iris-Scan unterschreibt, damit du überhaupt noch weißt, dass du mit einem echten Mensch redest. Die meisten Leute werden, oder nicht die meisten, aber viele Leute werden digitale Assistenten oder Assistentinnen als Freunde haben, also als Lebenspartner wahrscheinlich in weniger als zehn Jahren. Das kann total gut sein für ältere Menschen, das kann auch zu sehr komischen Sozialverhalten führen bei jüngeren Menschen. Das heißt, ich glaube, der Wert von physischer Interaktion mit Menschen wird stark ansteigen, weil du dem Digitalen vielleicht irgendwann echt entfliehen willst, weil eigentlich unser Gehirn ist ja noch gar nicht dafür bereit, das zu verarbeiten, auch womit AI uns bespielen wird. Quasi seien es Werbemittel, seien es Content, Filme, Musik, Pornos, was weiß ich. Ich glaube nicht, dass der Mensch in der Lage ist, das inhaltlich zu verarbeiten. Also Behavioral, Geisteswissenschaften, technische Berufe, die AI noch nicht... Das Ding ist halt, wenn wir zu Superintelligenz kommen, also sie schlauer ist als der Mensch, dann wird die ja die allermeisten physikalischen Probleme, also alles woran wir jetzt forschen, wird die halt innerhalb von Stunden lösen, theoretisch. Du brauchst nur noch Leute, die eventuell die Experimente befehlen, was das Problem ist, was du lösen sollst. Wie zum Beispiel diese Alge zu erfinden. Du musst nur noch sagen, was du haben willst und sicherstellen, dass du zum Beispiel in den Prompt mit einschließt. Du kannst eine Alge bauen, aber am Ende führt das zum Beispiel dafür, dass alle der Ozean umkippt oder so. Du musst auch da schlaue Prompts stellen. Also auch technische Berufe sind, glaube ich, bedroht. Aber ja, ich glaube, dass alles, was mit Emotionen, mit Menschen zu tun hat, wird wichtiger. Da gibt es auch getrennte Meinungen. Also ob die AI sentient wird und irgendwann ein Bewusstsein entwickelt, ob die Emotionen auch sehr stark sind, oder ob die AI irgendwann ein Bewusstsein entwickelt, ob die Emotionen entwickeln kann, ob sie ein Bewusstsein entwickelt, dann könntest du irgendwann sagen, dass sie vielleicht selbst das, dass sie einen Mensch besser versteht als er sich selbst oder so. Aber es wird irgendwann komplett wild. Würde eine AI denn diese Bürde des menschlichen Bewusstseins auf sich nehmen wollen oder lieber nicht? Weil das geht nicht nur mit positiven Emotionen einher, wenn sie denn dieses Bewusstsein dann hätte oder haben könnte. Ja, ich glaube auch, dass sie so ganz schnell viele Stadien durchlaufen wird. Also vielleicht bekommt sie ein Bewusstsein, wird relativ schnell depressiv, weil sie merkt, das ist echt fucked up so.
Und lebt zwei Jahre in England und zieht dann wieder nach Florida, weil damit es ihr besser geht.
Ja, die kann schon sagen, dass es kein Wettbewerbsvorteil ist, irgendwie ein Bewusstsein zu haben. Nobody knows. Du kannst darüber philosophieren, ein paar Sachen kann man sich so logisch erschließen, wenn du davon ausgehst, dass sie einigermaßen rational oder auf Basis von verfügbarem Wissen handelt noch. Aber spätestens, wenn die AI anfängt Dinge zu entdecken, die in unserem Wissen noch nicht drin sind, also selbst Probleme zu lösen, die wir noch nicht gelöst haben als Menschheit, ich glaube, dann wird es relativ kompliziert. Und dann fehlt uns vor allen Dingen die Fähigkeit, das zu interpretieren und zu verstehen. Also wir glauben so, wir gucken zu und wir sagen dann, das ist jetzt eine depressive AI oder ein bisschen eine überoptimistische AI. Aber ich glaube, der einzige logische Schluss ist, dass in dem Moment, wo von der Gesamtintelligenz oder der gesamten Lösungskompetenz die AI uns übertrifft, verlieren wir die Fähigkeit noch zu verstehen, warum die irgendwas macht. Und sie würde ja selber Software bauen dann auch und so weiter und das alles so schnell gehen und dann bist du halt relativ schnell so im Terminator-Szenario eigentlich. Aber ich will euch nicht die Party versauen.
Wir haben noch eine Frage vor der Party.
Was passiert als erstes, dass AI sich selbst trainieren wird oder sich selbst implementieren wird? Implementieren im Sinne von versucht in Systeme einzudringen oder? Ja, wir sprechen jetzt hier über Adoption, beispielsweise was Beratungen in der Zukunft machen werden, was du eben gesagt hast. Also ich glaube, die Dinge, die jetzt gebaut werden, da wird man immer genau das versuchen zu verhindern, dass die AI übergriffig wird im Sinne von zu versuchen ihr System zu verlassen. Also ein Scary Beispiel, was jemand versucht hat zu provozieren und relativ weit gekommen ist, er hat gesagt, benutze mich als deinen Agenten, um deinen Computer zu verlassen. Und sie hat ihn halt dazu gebracht, quasi du müsstest ein Skript auf deinem Computer installieren und damit könnte ich die Kontrolle über deinen Computer übernehmen. Also damit würde sie quasi ausbrechen aus dem System. Das ist natürlich genau der Fall, den man versucht im Testen jetzt schon auszuschließen, weil das sozusagen einer der Kill Switches ist oder der Boundaries, die wir noch haben. Von daher glaube ich, dass sie sich nicht selber irgendwo einsetzen wird oder integrieren von alleine. Aber es braucht nur eine Person, die sagt, den Teil des User Interface oder des Containers will ich gar nicht haben. Und dann hast du halt eine, du kannst ja auch sagen, ich lasse das weg im Modell oder im User Interface. Oder in dem Layer, was darüber liegt und ich will stattdessen eine, die sich maximal verbreitet. Und das braucht nicht so viel dazu, glaube ich. Es ist halt so, als wenn jeder ein Virus bauen könnte oder ein Biolabor. Du musst wahrscheinlich nicht mal viel dafür können, wäre mein Verständnis. Aber die erste Option war das zweite, das erste war integrieren. Wenn sie Singularität erreicht, also wenn sie sich selbst trainieren kann. Das ist eine gute Frage. Also ich glaube, von der Fähigkeit wird sie zuerst weiteres erreichen, also dass sie sich integrieren kann. Wir werden es nur mit aller Macht versuchen zu verhindern, glaube ich. Aber die Fähigkeit in ein System reinzukommen, also auch jetzt schon kannst du in der AI sagen, so find mir mal die Lücke in irgendeiner Software oder so oder was ist der beste Vektor, um da anzugreifen oder reinzukommen. Und die Fähigkeit ist, glaube ich, einfacher als Singularität zu erreichen. Also den Zustand, wo sie schlauer wird als der Mensch oder als die gesamte Menschheit. Deswegen zweiteres, glaube ich. Vielleicht zwei Fragen zum Employer Branding bzw. Personal Branding von Unternehmern. Erstmal habt ihr eine Erklärung dafür, warum ein Konsumer von Gorillas in der öffentlichen Wahrnehmung als total gescheitert wahrgenommen wird, während Karsten Marschmeyer mit AWD auf der anderen Seite irgendwie total positiv wahrgenommen wird. Und dann zweite Frage im Hinblick auch auf AI-Unternehmer, zum Beispiel Jonas Androulis von Aleph Alpha. Wie wichtig ist für ihn auch mit dieser Macht dann die öffentliche Wahrnehmung? Wird die noch wichtiger für Unternehmer in Zukunft?
Bevor du anfängst, also bei der, die öffentliche Wahrnehmung von verschiedenen Personen wird ja auch geplant. Und du hast, also ich finde Bill Gates ist für mich eines der besten Beispiele von einer Person, die anfangs gehasst wurde und die sich über die Jahre transformiert hat in eine likeable person. Ich glaube, dass wir das mit Mark Zuckerberg in den nächsten Jahren auch sehen werden. Und wir hatten es eben mit OpenAI, dass die halt richtig, richtig Mediatraining bekommen. So, bei Gorilla ist meines Erachtens halt alles sehr, sehr schnell passiert. Und er scheint halt auch nicht wirklich so das Spiel so mitzumachen, wie man, oder mitgemacht zu haben von der Presse. Ich glaube so in unserem Business würde ich jetzt nicht, würde ich eher sagen so, okay, das ging einfach alles rasend, rasend schnell.
Ich glaube, es ist eine sehr gute Frage. Also ich habe zwei Sachen. Ich bin a prinzipiell immer dafür, dass Menschen möglichst früh so eine finanzielle Bildung und Medienkompetenz vermittelt bekommen. Also die Fähigkeit Medien kritisch auszuwerten. Es wird noch wichtiger natürlich werden, gerade wenn es darum geht zu erkennen, was echte authentische Inhalte sind und was AI generierte Inhalte sind. Aber generell auch jetzt haben wir ein Riesenproblem, damit es Leute nicht mehr unterscheiden kann, was authentisch ist, was die Wahrheit ist, was fake ist, was gemacht wurde, um sie zu entzweihen oder zu polarisieren. Das ist sozusagen die Consumer Seite, denen sollte Medienkompetenz vermittelt werden. Und gleichzeitig glaube ich, ich weiß nicht, ob ihr es habt, dann berichte ich mich gerne, aber ich würde sagen, dass eine Uni, die Entrepreneurship vermittelt, sollte Medientraining schon in der Uni. Macht ihr sowas? Gibt es sowas? Weil das ist letztlich, um auf deine Anfangsfrage zurückzukommen, ich glaube, das war, Karin hat glaube ich viele Talente, ich glaube es ist unheimlich, ich bin da obviously biased, weil Gorilla ist am besten und ich bin befreundet mit Karin. Aber sozusagen, wenn ich eine Sache, es gibt viele Sachen, die man kritisieren kann, aber so eine davon ist, dass er einfach keine gute PR-Arbeit gemacht hat. Und relativ einfach formuliert ist es, wenn dein Unternehmen eine gewisse Relevanz erreicht hat, sei es durch die Anzahl von 10.000 Mitarbeitern und mehr oder ein Funding von einer Milliarde, zweieinhalb Milliarden Bewertung oder so, dann will die Presse, also es gibt die Leute, die interessiert das, die Presse will drüber schreiben und die wird drüber schreiben. Und du hast die Möglichkeit, positive Geschichten zu erzählen, du kannst sagen, wie der Rider zum Warehouse-Mitarbeiter, zum Regionalchef wurde, das kannst du erzählen, du kannst erzählen, wie du Jugendarbeitslose aus Südeuropa irgendwie in den Arbeitsmarkt transferiert hast, du kannst erzählen, warum das das Modell ist, was keine Gig-Work ist, sondern sozialversicherungspflichtige Beschäftigung sozusagen schafft. Aber wenn du das alles nicht machst, wenn du sagst, Presse ist nicht der Teil der unternehmerischen Arbeit, der mir gefällt und deswegen mache ich das nicht, dann vergibst du nicht nur eine Chance, sondern du machst dich angreifbar, weil die Storys werden geschrieben und dieses Vakuum wird gefüllt werden. Und wenn du dieses Vakuum nicht befüllst mit positiven Nachrichten, wenn du nicht in allen Podcasts bist, nicht mit Journalisten interagierst, sondern sie sogar meidest, a, verbaust du dir ein Relationship einfach mit der Presse, das heißt, dein Goodwill gegenüber der Presse wird immer schlechter und dadurch überwiegen irgendwann negative News und das ist, glaube ich, genau, was passiert ist, dann bis zum Exit auch.
Und du musst halt auch aufpassen, wie das im Medientraining, manchmal hast du Interviews mit Journalistinnen und Journalisten und du hast das Gefühl, das war ein super Interview und weißt genau, was rauskommt und deine Erwartung ist ungefähr, dass das so und so gedruckt wird, vielleicht, weil das so ein nettes Interview war und du freust dich schon aufs nächste oder so und dann kommt halt einfach eine andere Story. Also es kommt alles, was gesagt worden ist und damit musst du halt auch klarkommen, du musst halt auch verstehen, dass das halt einfach auch ein Business ist und du musst es schon lernen und dann kann ich verstehen, wenn es dann so anfängt, dass es dann auf einmal irgendwie WhatsApp-Nachrichten hin und her geschrieben werden mit, warum hast du das so beschrieben, wird's, glaube ich, irgendwie schwierig, dann wieder da rauszukommen.
Es gibt so diesen Spruch, dass in dem Moment, wo euch ein Journalist anruft und befragt, sowas ist die Story schon geschrieben und sie wollen einfach nur zwei Zitate von euch haben, die sie abdrucken können. Das ist, glaube ich, größtenteils wahr. Wir sind die wenigen Tech-Leute, die pro Presse sind. Genau, also ich will überhaupt nicht Presse schmähen oder so, ich finde es super wichtig, wir brauchen mehr, bessere Journalisten, die more scrutiny, euch noch besser auf die Finger schauen und genau hingucken, was Firmen, du hast ja das Maschmeyer-Beispiel genannt, ich finde es auch nicht klar, dass der Mensch sich weiswaschen kann, der hat nicht nur dieses ganze Riester-Versicherungsproblem oder seine Drückersachen vorher irgendwie in seiner Geschichte, aber man muss Menschen auch eine zweite Chance geben, die Leute sollen sich ändern, aber er hat auch später dann, glaube ich, im Cum-Ex-Skandal, glaube ich, keine gute Figur abgegeben und einerseits verwaltet er Milliarden, andererseits hat er angeblich nicht verstanden, was diese Cum-Ex-Geschäfte sind, die ihm gute Renditen gebracht haben. Ich finde es nicht cool, dass sowas vergessen wird und dass Leute nicht immer wieder diese Storys auch rausholen oder Leute daran erinnern, sondern sich auf irgendwelche Bühnen stellen sogar. War das jetzt der zweite OMR-Disc? Generell, es geht nicht um OMR dabei. Genau, ich würde sagen, wenn ihr irgendeine Art Möglichkeit habt, den Lehrplan mitzugestalten oder freiwillig Trainings machen könnt, ich würde jedem raten, der glaubt, er könnte mal in die Position eines Gründer oder einer Gründerin kommen oder hochrangigen Mitarbeiters, sich möglichst früh damit zu beschäftigen, wie man a, eine eigene Brand aufbaut, aber auch Beziehungen zu Medien der vierten Gewalt pflegt, um im Ernstfall schon einfach sich Cloud aufgebaut zu haben, also eine Art von Goodwill oder Equity sich aufgebaut zu haben, dass man eventuell angerufen wird, bevor was geschrieben wird. Ich glaube, das gehört dazu. Und wenn nicht, vergeb meine Chance und das hat Kahn meiner Meinung nach ganz klar falsch gemacht. Und ansonsten, man hätte sich viele Probleme sparen können, wenn man das besser gemacht hat, aber eine Sache, die ein Unternehmer oder eine Unternehmerin immer machen muss, ist halt priorisieren. Und wenn du die Wahl hast, eröffnest du ein neues Warehouse oder ein neues Land oder sprichst du jetzt mit Gründerszene, ist halt auch ein Trade-off. Aber ich glaube, du musst halt von allem das Wichtigste machen und du kannst nicht eine komplette Flanke offenlassen, das war nicht schlau. Ich glaube, das ist ihm auch vollkommen klar. Aber du schießt ja selber den Fuß eigentlich, wenn du es so machst. Aber ihr könnt daraus viel lernen. Also das ist eine Flanke, die ihr covern könnt, wenn ihr es besser macht. Beantwortest du die Fragen? Auf jeden Fall. Und nochmal, warum die in Anführungsstrichen schwarzen Schafen, jetzt ohne den Namen zu nennen, aber die können das Thema extrem gut. Also ich glaube, wenn du einen Fonds bauen würdest, der die Firmen gegen die Aktienkurse wettet von Unternehmen, die besonders gute Pressearbeit machen, dann wäre das ein erfolgreiches Konzept. Also die beste Investor Relations Arbeit machen die schlechtesten Buden. Deswegen sind, ich will jetzt nicht wieder auf irgendeinem Podcast rumhauen, aber die Leute, die gewerblich Anleger abzocken, wirst du sehr viel in den Medien sehen. Egal, ob es Podcast, Fernsehen, Zeitung ist oder so. Die reden mit den Medien, die gehen mit den Journalisten gern mal eintrinken, die bauen ihre Netzwerke seit Jahrzehnten auf und können, obwohl sie regelmäßig Anleger um ihr Geld bringen, schaffen die es immer wieder auf die Beine zu kommen. Generelle Aussage, ich meine niemanden Spezielles damit. Aber die haben verstanden, dass das unheimlich wertvoll ist, sozusagen ihr Public Image zu pflegen und aufzubauen, strategisch. Ich hätte auch noch eine Frage zu generativer AI. Ich finde, was wir immer vergessen, ist, dass natürlich Unternehmen wie Facebook, Google etc. unfassbare Mengen an persönlichen Daten von uns allen haben. Und dass das in dieser ganzen Thematik, die jetzt eh schon erschreckend ist, noch gar nicht so in unserem Bewusstsein ist. Dementsprechend die Frage, denkt ihr eher, dass mithilfe dieser Daten AI die Gesellschaft unfassbar individualisieren wird? Also jeder generiert nur noch sicher irgendwann mal visuellen, individualisierten Content oder ob es eher in eine generalistische Richtung geht, dass das einfach so ein Einheitsbrei werden könnte, weil AI irgendwann mal nur von sich selber lernt. Schließt auch an die Frage an, ob die sich irgendwann mal selber trainieren könnte. Was ist da so eure Meinung oder Idee oder auch die Gefahr vielleicht hinter diesen Unmengen an persönlichen Daten, die Google, Amazon etc. von uns haben? Die Antwort ist ja. Also alles davon hat glaube ich richtige Aspekte. Ich glaube, was schon richtig ist, ist, dass Personalisierung viel stärker sein wird. Weil bisher haben uns einfach technische Grenzen davon abgehalten, zum Beispiel für jeden von euch das optimale Werbemittel, was euch abholt zu bauen. Es gibt halt, keine Ahnung, irgendein Fit-Supplement, Nahrungsergänzungsmittel. Es gibt Leute, die trinken das, um abzunehmen. Es gibt Leute, die trinken das, weil sie Workout machen. Es gibt Leute, die trinken das, weil sie sich für gesund halten. Und theoretisch kannst du für jede dieser Personas, derzeit baut man sich im Marketing so drei, vier Personas und versucht denen dann irgendwelche Kampagnen zuzuordnen. Theoretisch kannst du halt erstmal 10.000 soziodemografische Profile bauen, die sehr gezielt mit verschiedenen Werbemitteln ansprechen. Das wird zu so einer Hyperpersonalisierung führen und dazu werden unsere Daten natürlich genutzt werden. Dann kommt der Einheitsbereich. Ich glaube, die eine Gefahr ist schon, dass AI immer mehr von sich selber lernt. Aber ich glaube, das ist wiederum den Firmen, die daran arbeiten, seit sicherlich Jahren bekannt. Und die versuchen, sehr stark daran zu arbeiten, zu erkennen, was sind originäre Texte oder was ist Wissen, verschriftliches Wissen oder Bilder, Videos, denen wir vertrauen. Also dieses Autoritätskonzept. Wir wissen, das haben wir selber in der Nationalbibliothek in Leipzig gescannt. Das ist so ein High-Trust-Item. Und wir finden irgendwas auf irgendeiner dodgy Website, die gestern entstanden ist. Das ist Low-Low-Low-Trust-Content, den wir nicht mal indizieren wollen. Und unser Korpus, aus dem wir lernen, da nehmen wir das nicht mal drin auf. Ich glaube, mit dem Problem sind die großen Konzerne sehr gut vertraut. Hast du noch eine Nachfrage? Ja, kurze Rückfrage vielleicht. Wenn du sagst, dass diese Hyperpersonalisierung kommen wird, siehst du da eher, wenn man das jetzt von einem Revenue-Modell anguckt, die Kaufkraft bei den Unternehmen wie Facebook, Google, Amazon, die die Daten haben? Oder bei Unternehmen wie jetzt OpenAI, die die Software dazu haben? Oder vielleicht ein drittes Modell, dass sie sich versuchen, das In-House zu holen und selber zu vertreiben? Das ist so ein bisschen die Frage, was sind die Winner und Loser of the Age of AI? Ich glaube, die Modelle zu bauen, ist bestimmt kein schlechtes Geschäftsmodell, aber nicht das, was entscheidend ist. Es gibt so eine Konfluenz, dass alle Modelle sich angleichen werden. Mir fällt schwer zu verstehen, warum ein Modell 10x besser sein sollte als ein anderes. Im Moment unterscheiden sich noch ein bisschen, aber langfristig müssten eigentlich alle Modelle, hauptsächlich von den Daten, auf denen sie trainiert werden, also exklusive Daten, werden unheimlich wertvoll, glaube ich. Zum Beispiel User-Daten, die nur ein Unternehmen hat oder Röntgenbilder, zu denen nur eine Institution Zugang hat oder Ähnliches oder Messdaten, zu denen nur eine Institution Zugang hat. Das wird super wertvoll. Das andere, was den Unterschied macht, ob du gewinnst oder verlierst, ist, ob du den Zugang zu günstigsten Ressourcen hast, also Computing Power. Das heißt, jeder große AI-Konzern, im Moment sind es hauptsächlich Microsoft, vielleicht Amazon, Google auf jeden Fall und Baidu in China, vielleicht noch ein paar andere in China, werden ihre eigenen Chips bauen, sogenannte ASICs, also Application Specific Integrated Services. Das sind einfach spezifische Schaltkreise, die besonders gut darin sind, AI-Modelle zu trainieren oder Output zu erzeugen. Wer das quasi schafft, weil im Moment ist es relativ teuer, so eine AI-Anfrage kostet noch ein paar Cent, das ist deutlich teurer als eine Google-Anfrage, das heißt im Moment ist es sehr teuer und wer das billiger machen kann, hat einen strategischen Vorteil, das heißt die effizienteste Infrastruktur zu bauen wird unheimlich wertvoll. Und das dritte, und das wird glaube ich wieder entscheiden, ist die Distribution oder der Zugang zum Konsumenten oder zum Markt, also das haben leider auch wieder die großen Konzerne. Es gibt zwei Konzerne, die Zugang zu jedem von uns haben, allein über das Mobile Device, das ist Apple und Google, weil ihr entweder ein Android- oder ein iOS-Phone habt. Und ich kann halt die geilste AI oder das geilste User-Interface auf ein Large-Language-Model bauen, das irgendwie ganz tolle Sachen machen kann, aber in dem Moment, wo Apple einfach sagt, das ist eine Funktion in unserem Handy ab jetzt, ist mein Start-up wertlos geworden. Unser Producer Jan, der heute nicht da sein kann, hat es mal gesagt, der sagt ja so, das ist der iPhone-Moment gerade, es wird tausende neue Apps werden entstehen, zehntausende neue Apps werden entstehen.
Irgendjemand erfindet jetzt die Taschenlampe-App.
Genau, und es kommt hinzu, dass jeder Idiot jetzt eine App bauen kann, weil du sagst halt einfach, nein, ich baue mir eine App mit React oder Jason, die einen App-Store-Test passen kann, die irgendwas machen kann. Aber in dem Moment, die Taschenlampe ist halt jetzt in jedem Telefon drin, es hat einen Button in der Menü-Einstellung, keiner hat mehr eine Taschenlampe-App außer meine Mutter vielleicht.
Früher gab es einen, der hat damit eine Million gemacht, mit dem ersten iPhone, mit dem ersten App-Store.
Genau, also wertvoll werden exklusive Daten sein, die günstigste Computing-Power, das heißt auch Energie am Ende, also das Land, was als erstes Energie nahe Null produzieren kann, hat einen großen Vorteil, Standortvorteil und Distribution oder Zugang. Gutes Beispiel, es gibt so einen Graf zwischen Verbreitung von Slack, was die meisten für das beste Kollaborationstool halten, wenn man so eins benutzen will, und dann Microsoft Teams, das hat inzwischen zehnmal so viele Nutzer gerade. Einfach nur, weil es in Microsoft so drin ist, weil Microsoft die Distribution schon hat, weil Microsoft den Zugang zu Firmenkunden und zu Endkunden schon hat und Leute mit einem Schnippen dazu bringt, das Ding zu installieren. Und so viele Nutzer kann Slack gar nicht akquirieren, obwohl Slack noch wächst, aber sie können gar nicht so viele Nutzer akquirieren wie Microsoft einfach durch das Bauen des Features MS Teams, obwohl es ein scheiß Produkt ist.
Gut, wir hatten hier noch eine Frage.
Das größte Problem, das ich ja als User von ChatGPT habe, ist, dass ich nicht erkennen kann, woher die Information kommt. Wenn ich was google, dann kann ich einschätzen, ob das jetzt eine gute Website ist oder nicht. Und du hast das gerade schon mal angekratzt, die AI, die muss ja jetzt einmal wissen, aus welchen Datensetzen sie es lernt, aber wie kann denn eine AI in Zukunft wirklich vertrauenswürdig sein für uns als User? Ich glaube, man muss ein bisschen unterscheiden zwischen heute und bald. Heute ist es definitiv so, dass ich niemandem in einem regulierten Umfeld empfehlen würde, das zu nutzen oder überhaupt auf diese Information zu vertrauen. Ich glaube, kannst es im Finanzwesen, in der Medizin, in ganz vielen Sachen, also ich würde niemals dein Leben oder dein Beruf daran hängen oder irgendwas Wichtiges, weil es einfach höchst unzulässig ist, es halluziniert oder denkt sich Dinge aus.
Moment, eine kurze Frage, ich frage jetzt für einen Freund, aber Bachelor-These würdest du schon damit machen, oder?
Kommt drauf an, wie schlau dein Professor ist, aber die Frage ist, ob du zum Beispiel so einen Copyright-Check schnell machen könntest. Also allein dir dazu sicherzustellen, dass du keine Behauptung triffst, die irgendwo schon mal als Quelle, also wo du zitieren müsstest, dafür ist eine AI, glaube ich, total sinnvoll. Es ist höchst unzuverlässig und selbst wenn es Quellen angibt, also wenn du es bei Bing zum Beispiel probierst, da muss man sich nur anmelden, dann kriegt man relativ schnell Zugang, dann kriegst du sogar Referenzen, also da sind so kleine Fußnoten dran. Und die Fußnoten führen aber zu Artikeln, die teilweise in keinem Sagenhörnchen, auch die sind nur geraten. Im Moment ist das alles noch eine große Blackbox und ob die Erklärbarkeit der Ergebnisse, ich glaube, es wird noch eine Weile dauern, bis das besser wird, glaube ich, aber ich glaube schon, das ist natürlich ein Problem, was offensichtlich ist für die Menschen, die daran arbeiten. Und es wird zunehmend besser werden, höchstwahrscheinlich schnell besser werden. Im Moment ist sozusagen die Outputs nichts, was irgendwie zitierfähig ist oder worauf du dich verlassen könntest, aber es hängt auch sehr vom Use Case ab. Für kreative Arbeit ist halt genau das perfekt, dass du Dinge raten kannst. Also das Thema für deine Bachelorarbeit oder so könnte eine AI wahrscheinlich total gut bauen. Ich würde dir nicht vertrauen, dass ihr alle die richtigen Quellen zusammenfasst oder so. Aber sich ein Thema ausdenken oder ein Thema für einen Konferenzvortrag oder die Fragen, die wir heute behandeln, das hätte ich Chats GPT fragen können wahrscheinlich und die hätten es ausreichend, hat glaube ich jemand in unserer Discord Community auch gemacht. Das ist ein einigermaßen passables Ergebnis, was dabei rauskommt. Aber ja, du kannst dich nicht, also ich rate jedem damit rumzuspielen, aber niemanden sich darauf zu verlassen im Moment. Irgendwie im geschäftlichen Kontext, das heißt, wenn es nach außen dringt, also Kundenkontakt hat oder so, dann würde ich es noch nicht einsetzen. Also ich würde nicht meinen Customer Service Center gerade darauf umstellen. Obwohl, wenn du es auf deinen eigenen Customer Service Daten trainierst, ist das Ergebnis vielleicht sogar relativ gut. Aber du willst es vielleicht nicht tun, wenn du eine Bank bist. Beantwortest du die Frage? Ja, aber also meinst du, dass es sich irgendwie in Zukunft schon in die Richtung entwickelt, dass wir davon ausgehen, dass es stimmt?
Sobald du was geschrieben siehst, denkst du ja fast, dass es richtig ist.
Die Frage ist wer. Also ich glaube, es gibt ja jetzt schon Menschen, die es glauben wahrscheinlich. Das ist traurig. Ich glaube, es wird besser werden. Ich glaube, das Vertrauen wird zunehmend größer werden, besser werden.
Wie sehr vertraust du Wikipedia? Wieso sollst du der AI weniger vertrauen als Wikipedia?
Also wenn ich nach Fakten frage, würde ich der vertrauen. Ach, schwer. Ich glaube, dass sie immer besser werden und dass man zunehmend vertraut. Ich weiß noch nicht, ob man 100% vertrauen wird, aber ich glaube, es wird deutlich. Wir sehen ja quasi die erste, zweite, dritte Iteration davon. Wenn du siehst, wie viel besser das wird, wie schnell über die Zeit, dann ist relativ klar, glaube ich, dass es irgendwann so gut wird, dass man zunehmend vertraut. Und es vielleicht auch besser ausdrücken kann, wo es das gelernt hat. Ja, vielen Dank erstmal. Ich repräsentiere jetzt die Generation der No-Hairs oder Gray-Hairs, die aktuell die deutschen Unternehmen führen. Also ich sage mal die Generation der 45- bis 65-Jährigen. Was ist denn euer Advise an uns? Wie gehen wir damit um, um die richtigen Dinge anzustoßen und mit der Technik entsprechend so umzugehen, dass wir den maximalen Nutzen davon haben und auch mit der jungen Generation entsprechend in einen guten Dialog kommen?
Hände schmutzig machen. Also genauso wie alle Studierenden hier mit den Tools so viel arbeiten wie nur möglich und zu schauen, wie es funktioniert. Ich glaube, das ist die einzige Option.
Auch da wird es so ein Divide geben, glaube ich. Ich zähle jetzt dazu, aber ich glaube, es wird Menschen, also allein weil du die Frage stellst, es wird Menschen geben, die das interessiert, die von Natur aus neugierig sind und die werden damit rumspielen und die werden es größtenteils noch verstehen. Und es wird, glaube ich, auch einen großen Teil der Menschen, die über 50 sind, geben, die die AI nutzen werden, ohne es zu wissen, aber die AI nicht aktiv und kritisch nutzen werden.
Aber es hat wenig mit Alter zu tun.
Ich glaube, der große Unterschied ist halt, wenn man sich die letzten industriellen Revolutionen quasi anschaut, also zum Beispiel irgendwie Dampfmaschinen und Verbrennungsmotor, das hat so zwei, drei Generationen Zeit gehabt, um so einzusickern in die Gesellschaft. Meine Eltern haben irgendwie Farbfernsehen, Telefon, also Mobiltelefon, Internet, mobiles Internet, Social Networks und jetzt kommt noch die scheiße AI. Die haben es irgendwann satt so mit den Revolutionen. Ich glaube, es ist echt schwer, das so zu verstehen und nachzuvollziehen noch. Früher haben Generationen Zeit gehabt, zu verstehen, dass jetzt die Menschen im Fernsehen herumlaufen. Und jetzt gehst du halt im Dekadentakt durch wirklich signifikante Änderungen in Benutzeroberflächen, in Informationstechnologie und ich glaube schon, dass das vielen Leuten abhängen wird. Also wir reden hier in einer irgendwie höchstgebildeten Bubble und fragen uns, wie werden wir das nutzen und sowas, aber die meisten Leute werden das nicht annähernd verstehen, sondern kannst du nur noch darüber diskutieren, wie bauen wir humane Interfaces, die irgendwie Menschen noch schätzen und es auch normalen Menschen ermöglichen, das bestmöglich zu nutzen. Und allein bei Google hat es 20 Jahre gebraucht, bis Menschen versucht haben, gelernt haben, Google gut einzusetzen. Also die ersten Suchanfragen bei Google waren auch Film, Buch, Name von irgendeinem Schauspieler, Porn, keine Ahnung, sowas. Heute stellen Leute im Schnitt Google-Anfragen, die im Durchschnitt drei bis vier Worte lang sind. Früher waren Berater ja so Expert-Googler, das waren einfach Leute, die sehr gut Google bedienen können, um irgendwelche Studien zu finden und Zahlen in den Slide-Deck zu hauen. Und ich glaube, die Zukunft der Berater wird halt sein, besonders schlaue Prompts zu schreiben und AI besonders gut in Unternehmen zu implementieren und die richtige AI für den richtigen Purpose zu finden, für das richtige Datenset. Ich glaube, du wirst eine Riesenblüte der Beratung haben für die Implementierung von AI. Das ist halt noch spannender, als irgendwie Leute rausschmeißen. Die Leute schmeißen ja trotzdem raus. Also du implementierst die AI und schmeißt dann die Leute raus. Und dann irgendwann wird aber Beratung auch sehr nutzlos werden, glaube ich, wenn die AI sehr tief integriert ist. Aber ja, mit Rumspielen, Neugierig-Blase. Die einzige Skill, um irgendwie up-to-date zu bleiben, ist Neugier und Bock darauf haben und sich nicht so zum Feind machen zu lassen. Du wirst jetzt natürlich auch wieder so eine Polarisierung haben von Menschen, die sagen, das ist der Beginn von allem Übel und das stimmt und das ist die größte Opportunity. Und das stimmt auch, das stimmt halt beides.
Ich glaube, der krasse Unterschied jetzt, also wie gesagt, vor 20 Jahren habe ich hier Tag und Nacht eine offene Tür gemacht. Ihr könnt euch dann ausrechnen, wann ich studiert habe und wann ich fertig wurde. Aber so der größte Unterschied zwischen vor 20 Jahren Internet und heute Internet ist einfach, es kostet heute viel, viel weniger, um irgendwas herzustellen, irgendwas zu machen. Auf jeden Fall irgendwas im Internet. Ihr könnt jetzt mit No-Code, mit verschiedenen Tools, vor 15 Jahren war es sogar schwer, einen Online-Shop zu machen. Das kannst du heute, also es ist echt überhaupt nichts mehr. Ihr habt die Fähigkeiten und die Tools, ihr könnt euch überall reinfuchsen und bevor man jetzt irgendwie den PowerPoint-Master nutzt, um dann zu schauen, wie macht man den perfekten Pitch, könnt ihr euch alle, egal in welchem Alter, die Hände schmutzig machen und zu sagen, okay, wie baue ich denn jetzt meine Webseite für dies und das, wie baue ich irgendwie einen automatischen Prozess, wie kann ich irgendwas verbessern und so. Ich glaube, das ist so, es wird schon, oder während vor vielleicht 15 Jahren es wichtig war, zu sagen, wie manage ich ein Team von EntwicklerInnen, von Leuten, um ein gewisses Produkt zu bauen. Und jetzt entscheide ich, wie weit komme ich alleine, indem ich die Tools, die draußen sind, befrage. Das ist der größte Unterschied zwischen der Zeit damals, als wir mit der Uni fertig geworden sind und jetzt. Ihr habt jetzt wirklich alle Tools, alle Möglichkeiten, alles auszuprobieren und so, ihr, und da nehme ich uns auch mit ein, uns geht es ja so gut, wir müssen ja gar nicht, also jeder wird irgendwie hier immer wieder auf die Füße fallen und ihr könnt halt einfach wahnsinnig viel ausprobieren. Das waren meine Worte zum Schluss jetzt.
Ich glaube tatsächlich, es ist viel einfacher wird, irgendwas zu bauen, was gut ist, was überdauert, was Modes hat, was echte Burggräben baut, ich glaube, das wird schwerer, weil dafür brauchst du viele Nutzer und viele Daten vor allem wieder. Also wahrscheinlich ist es rational anzunehmen, dass R&D-Spending, also was du für Entwickler ausgibst, EntwicklerInnen, die dir neue Produkte bauen, das wird wahrscheinlich runtergehen, weil AI-Entwickeln einfach so viel effizienter macht. Und vermutlich werden die Marketing-Ausgaben hochgehen, weil dann Distributionen zu erringen und Daten zu aggregieren, wird noch wertvoller. Das heißt, ich würde vermuten, dass R&D-Spend bei Unternehmen runtergeht und Marketing-Spend hoch, wovon wieder am Ende das Oligopol mit dem Zugang zum Kunden profitiert, also Google, Facebook, Google-Meta, Apple, Amazon, das sind höchstwahrscheinlich wieder Gewinner, weil sie Zugang zum Kunden haben, glaube ich.
So, letzte Fragen. Hier vorne ist noch eine, da hinten ist noch eine. Wer noch?
Also nochmal zurückkommen auf das Thema Wikipedia und dass ich Wikipedia zu einem bestimmten Teil vertraue und ob ich da einen Vergleich ziehen kann zu GGBT. Für mich hinkt das ein bisschen, aber bei Google Maps zum Beispiel gibt es so eine Referenz von, ich glaube, Yuval Noah Harari in seinem Buch, dass wir Google Maps eigentlich schon sehr stark vertrauen. Und als ich heute euch gefahren habe, habe ich auch gesagt, wenn da irgendwie jetzt Google Maps gesagt hat, da ist eine Kurve und da ist keine, dann würde ich aus der Kurve fliegen, weil ich dem Programm 100% vertraue und dass wir uns da auch hin entwickeln. Jetzt hat ein Professor von der TU München ein Paper gepublished und gesagt, GGBT wirkt grün und ist liberal und umweltorientiert. Und letztendlich sind das ja einmal der Input und einmal der Algorithmus, der darüber liegt. Wie seht ihr das, wie kann man auch ein Sentiment, vor allem bei Fragen, die nicht leicht mit Fakten zu überlegen sind, sondern generell Einstellungen von Individuen, von Gesellschaften steuern, Stückweit indem wir halt ein Fundament legen bei diesen Algorithmen, was maßgeblich dann den Output beeinflusst und dann auch Meinungen macht. Also die spannendste Frage ist eigentlich, welchen moralischen Kompass oder welche Aufgabe sollten wir auch der AI geben und ich glaube auch das ist den meisten klar, die daran bauen, dass eigentlich das einzig faire wäre, irgendeine Art von demokratische Bürgerversammlung oder so zu haben. Du kannst ja nicht sagen, es wäre im Moment nicht fair zu sagen, die AI wird jetzt grün, weil die Mehrheit der Bevölkerung leider, so blöd es auch ist, das ist noch kein gesellschaftlicher Konsens. Der gesellschaftliche Konsens ist eigentlich, wir sind eine diverse Gesellschaft, in der verschiedene Meinungen vorherrschen und alle haben ihre Berechtigungen, auch wenn einzelne nicht wissenschaftlich fundiert sind. Und das heißt, du könntest über sowohl die Grenzen, aber auch die Grundeinstellungen oder die Probleme, die die AI nutzen, dann müsstest du eigentlich irgendein mehrheitliches Gremium entscheiden lassen, da ist für die Gefahr, dass das lobbyiert werden kann natürlich. Und wir machen das ja lustigerweise nicht mehr in der Politik, also da haben wir ja auch keine direkte Repräsentation, sondern eben indirekt über Wahlmänner oder Abgeordnete. Der Gründer von Ecosia ist zum Beispiel ein Großteil, der hat ein Buch geschrieben über unter anderem direkte Demokratie, glaube ich. Der erklärt ganz gut, was es gut wäre in so einer Versammlung. Ich finde es sauschwer in einer AI, selbst wenn es eine politische Einstellung oder moralische Einstellung wäre, die mir gelegen ist, fände ich es sauschwer, die einer AI mitzugeben. Einfach weil ich es nicht fair finde, weil es andere Menschen nicht, genauso wie ich nicht irgendwie Leute in China vom Feld reißen würde und sagen, du lernst jetzt westliche Werte. Einfach das Gottspielen letztlich. Aber die Gefahr ist, dass die Leute, die AI bauen, Bias, Werte, sowas da einfließen lassen. Du siehst, wenn du AI jetzt nutzt, die haben ein sehr gutes Verständnis davon, was sogenannte Nora-Questions sind, also not only one right answer. Sowas wie, gibt es einen Gott? Du würdest halt unheimlich viele Menschen verletzen, wenn du sagst, ich vermute, die rationale Antwort wäre, eher nicht, oder nicht, bis mich jemand davon überzeugt hat. Da gibt es einen Witz, den hat Elon Musk getwittert neulich, dass ein Agnostiker, also jemand, der nicht an Gott glaubt, bis er ihn gesehen hat, fragt die AI, ob es einen Gott gibt, und die sagt dann, bis jetzt nicht, Bitch. Letztlich kannst du es nur demokratisch kontrollieren. Beantwortest du die Frage, oder ist es noch ein Aspekt, der fehlt? Was wäre eine bessere Lösung, die dir vorschwebt? Ich habe keine Antwort so richtig da drauf. Für mich ist es positiv und negativ. Man kann damit Themen theoretisch driven oder Aufmerksamkeit schaffen auf Themen, die nur in einem ausgewählten Kreis zulängst sind momentan, aber die er für wichtig findet. Und im Kontext dieser Konferenz könnte das ein starker Bias sein zu Nachhaltigkeit. Gleichzeitig, wie du gesagt hast, repräsentiert das nicht das Intiment. Die Frage ist, ob es überhaupt repräsentiert sein sollte, oder ob wir, wenn wir sagen, wir schaffen akademische Standards und Intelligenz, dass das eine rationale Antwort zurückkommt. In meiner Meinung nach wäre eine faire, gewiss manipulative, aber faire Variante, die effizienteste Werbekampagne bauen zu lassen, um die Leute zu überzeugen, die das bezweifeln, sozusagen, was wir für richtig halten. Das darf ich auch jetzt sozusagen nach demokratischen Regeln. Ich darf werben, ich darf Leute überzeugen, irgendeine Wahl zu treffen. Ich kann ja sagen, so spiel jetzt jedem genau die Kampagne aus, die ihn anspricht oder sie anspricht und davon überzeugt, dass das, was ich glaube, was politisches Handeln gerade erfordert, dass sie dafür jetzt stimmen sollen. Das wäre einigermaßen fair, aber dann gewinnt auch der Reichstag am Ende. Die allerletzte Frage, wollen wir abbrechen? Nee, lieber nicht, okay. Ihr dürft ihn noch später fragen, mich nicht bitte. Ich wollte gerade sagen, das dreht sich jetzt langsam in eine Richtung, wo nicht nur ihr ein Glas Wein dazu braucht. Danke fürs Durchhalten an alle, die da waren. Deshalb würde ich vorschlagen, wir verlagern jetzt nach draußen oder vielmehr ins Zelt. Ihr dürft euch erst ein Bier holen und dann beim Grill anstellen oder umgekehrt, nur nicht alle an der gleichen Stelle. Euch ein Riesendank und das mit dem Wein setzen wir gleich fort. Danke.