Devs on Tape - AI (Teil 1)
Shownotes
Wir starten in die neue Staffel von Devs on Tape! Das Gespräch mit Philipp Hartenfeller in der letzten Folge hat unser Interesse geweckt und wir haben die Feiertage für etwas Recherche genutzt.
Wir sprechen über verschiedene AI-Technologien und unsere Anwendungen für diese. Wie immer sind, das darf natürlich nicht fehlen, viel eigene Meinung und Einschätzungen enthalten. ;-)
Devs On Tape auf Twitter: @devsontape Kai Donato - kai.donato@mt-ag.com - Twitter: @_KaiDonato Carolin Krützmann - carolin.hagemann@doag.org - Twitter: @CaroHagi
Dieser Podcast genießt die freundliche Unterstützung der Deutschen Oracle Anwender Gruppe (DOAG e.V - https://doag.org)
Transkript anzeigen
00:00:00: Hallo und herzlich willkommen zu einer neuen Ausgabe von Devs on Tape, die erste im Jahr
00:00:19: 2023. Hallo Caro, frohes neues Jahr! Hallo, danke dir auch. Und natürlich auch frohes neues Jahr
00:00:27: alle unsere Zuhörer. Ihr werdet wahrscheinlich jetzt alle so ein bisschen verwirrt sein,
00:00:30: weil das Intro diesmal vor dem ersten gesprochenen Wort kommt. Das ist so ein neuer
00:00:37: Twist unserer zweiten Staffel, oder? Wahrscheinlich ist es niemandem aufgefallen, aber jetzt wisst
00:00:41: ihr es. Ja, also jetzt bitte nicht immer die ersten Minuten oder Sekunden überspringen im Podcast,
00:00:45: weil da ja eh nur die Begrüßungsfloskel kommt. Jetzt müsst ihr, um das Intro zu hören,
00:00:49: direkt von Anfang an starten. Ja, unsere erste Folge "Devs on Tape" dieses Jahr. Wir sind zurück
00:00:55: und ich freue mich tierisch auf dieses Jahr, weil wir unheimlich viele tolle Sachen vorhaben.
00:00:59: Vielleicht aber noch mal einen kleinen Recap, einen kleinen Rückblick auf das letzte Jahr.
00:01:03: Vielleicht haben wir so beendet, das beendet das Jahr, glaube ich, und so starten wir jetzt auch
00:01:07: in das neue Jahr, dass wir einmal ganz kurz ins letzte Jahr zurückblicken und Revue passieren
00:01:12: lassen, was wir in der ersten Staffel "Deaths on Tape" alles Tolles gemacht haben. Caro,
00:01:16: was fällt dir denn auf Anhieb ein, was war das Tollste bezüglich "Deaths on Tape" im letzten Jahr?
00:01:22: Das Tollste. Also ich würde glatt zusammenfassen, dass ich es einfach fantastisch finde,
00:01:27: dass wir so viele tolle Interviewpartner hatten und einfach so viele verschiedene,
00:01:32: spannende Themen betrachten konnten. Und ich freue mich schon wahnsinnig darauf,
00:01:35: das so weiterzuführen und ja, noch viele andere spannende Interviewpartner kennenzulernen und
00:01:43: vielleicht auch den einen oder anderen, ich sage mal alten Interviewpartner noch mal einzuladen.
00:01:48: Ich glaube auch, dass dieser eigentlich geplante mehr oder weniger News-Podcast aus der Web-Development-Welt
00:01:54: jetzt zu einem Interview-Podcast gewachsen ist eigentlich.
00:01:57: Ja.
00:01:58: Und dass das eigentlich auch das ist, was Devs on Tape ausgemacht hat, dass wir halt
00:02:01: eben ziemlich viele Devs und auch Nicht-Devs zu Gast bei uns im Podcast hatten und super
00:02:06: viel über tolle, spannende Themen erfahren haben.
00:02:09: Das ist für mich auch tatsächlich ein Highlight.
00:02:11: Und natürlich die Tatsache, dass wir uns eigentlich durchgerungen haben, etwas in diese
00:02:14: Richtung zu unternehmen.
00:02:15: Das war ganz lange in unserem Kopf und ganz viele Möglichkeiten. Es hat sich noch nicht so klar
00:02:20: herauskristallisiert, was es werden soll, aber es ist dann letztendlich ein Podcast geworden. Und
00:02:24: ich bin auch nach einem Jahr und den ersten Folgen sehr glücklich über diese Entscheidung.
00:02:28: Ja, wir haben im letzten Jahr tatsächlich auch in zwei Sprachen aufgenommen. Also wir haben
00:02:35: überwiegend natürlich in Deutsch aufgenommen, weil das ja für uns am einfachsten und für uns
00:02:39: auch die Möglichkeit bietet, so authentisch wie möglich zu sein. Aber wir haben auch dann
00:02:43: tatsächlich den Schritt gewagt, dass wir auch auf Englisch aufnehmen, was natürlich für uns so ein
00:02:50: bisschen schwieriger ist, mit unseren Gesprächspartnern dann die gleiche Atmosphäre oder diesen gleichen
00:02:57: Fluss zu erzeugen, wie wir das in Deutsch machen. Aber mit den Gästen, die wir da auch bekommen
00:03:01: hatten oder die wir dann erreichen konnten über unsere Kanäle, hat sich auf jeden Fall gelohnt,
00:03:06: dass wir genau das so gewagt haben und auch versucht haben. Würde ich praktisch eigentlich
00:03:12: auch mit als unsere besten Folgen und erfolgreichsten Folgen vor allem auch zählen, dass wir da am
00:03:17: meisten Hörer auch erreichen konnten aufgrund natürlich der Sprachbarriere, die dann für viele
00:03:21: nicht mehr da ist. Ja, da vielleicht auch ein Blick hinter die Kulissen. Wir haben natürlich
00:03:26: auch viel darüber nachgedacht wegen der Audience, die man da ansprechen kann, potenziell mehr auf
00:03:31: Englisch als auf Deutsch. Aber wir bleiben erstmal ein deutscher Podcast und machen auch keine
00:03:39: englische Ableitung, sondern wir halten, dass weiter gemischt werden, aber wahrscheinlich
00:03:43: auch dieses Jahr kann ich mir gut vorstellen, vielleicht auch das ein oder andere englische
00:03:47: Gespräch führen. Genau, wir wollen das natürlich den Hörern, euch Hörern, jetzt nicht vorenthalten,
00:03:52: dass wir tolle Kontakte haben, mit denen wir auch gerne über tolle Themen sprechen wollen. Und
00:03:55: dementsprechend ist diese Entscheidung, vor der wir standen, ob wir wirklich vielleicht komplett
00:03:59: umsatteln auf Englisch, weil das einfach eine viel größere Reichweite erzeugen kann und so
00:04:04: gegebenermaßen in unserer Branche natürlich auch die meisten deutsch sprechenden Zuhörer auch
00:04:08: Englisch sprechen und dementsprechend dann für alle einfach ein Format, eine Sprache haben.
00:04:13: Diese Entscheidung haben wir aber, wie du ja gerade gesagt hast, Caro, wirklich eindeutig in
00:04:17: diese Richtung entschieden oder getroffen, dass wir weiterhin in Deutsch unsere Folgen machen.
00:04:23: Aber wenn es mehr Folgen gibt, dann mit Sicherheit auch mehr auf Englisch. Wenn sich die Gelegenheit
00:04:28: bietet dieses Jahr, dann werden wir auch natürlich die Gelegenheit beim Schopf packen und dann auch
00:04:34: auf Englisch aufnehmen. Da werden wir niemanden abweisen oder auch niemanden nicht anfragen,
00:04:38: weil das eben nicht auf Deutsch möglich ist. Genau. Ja, wir haben letztes Jahr für uns auch
00:04:44: entdeckt, dass wir natürlich in der Kooperation mit der DOAG und mit der Unterstützung von der
00:04:48: DOAG auf viele Konferenzen reisen können, die die DOAG veranstaltet. Und das ist natürlich
00:04:52: für uns ein gefundenes Fressen. Also bevor wir jetzt Kontakte knüpfen und Termine ausmachen,
00:04:58: wo wir Aufnahmen mit Gästen haben, ist es natürlich am sinnvollsten, wenn wir das auf
00:05:02: den Konferenzen machen, wo die Experten und wo die interessanten Menschen einfach alle an einem Fleck
00:05:06: sind oder viele auf einem Fleck sind und wir dann einfach viele tolle Gespräche in sehr komprimierter
00:05:11: Zeit oder sehr kleinen Zeiträumen führen können. Und das haben wir letztes Jahr geschafft, das
00:05:15: werden wir dieses Jahr intensivieren, weil wir dieses Jahr natürlich auch noch mal viel mehr
00:05:20: unterwegs sein werden als letztes Jahr mit den Ausläufern von Corona. Jetzt stehen schon so
00:05:26: viele Sachen fest, wo wir unterwegs sein werden, wo wir mit Sicherheit auch tolle Gespräche führen
00:05:30: können und auch noch die letzten spannenden Gäste aus dem Universum, aus dieser Bubble,
00:05:35: vors Mikro zerren können. Genau. Aber wenn ihr auch zum Beispiel Interviewpartner, also wenn
00:05:42: euch die Interviewpartner interessieren, dann schreibt das auch gerne in die Kommentare oder
00:05:46: schickt uns ein E-Mail oder reicht uns auf Twitter. Ihr habt ja alle unsere Kanäle in den Show Notes.
00:05:52: Und schreibt uns einfach die Interviewpartner. Wir gucken, ob wir die anfragen können. Wenn ihr
00:05:56: habt auch gerne mit E-Mail-Adresse oder sowas in der Art, dann können wir da mal schauen,
00:06:02: ob sich da was machen lässt. Und natürlich auch, wenn ihr euch selber als interessante
00:06:07: Interviewpartner seht, dann könnt ihr euch natürlich auch melden. Wir werden hier niemanden
00:06:12: vorher ankündigen, er hat sich bei uns gemeldet, weil er unbedingt mal was erzählen will im
00:06:16: Internet. Das ist natürlich alles non-disclosure und deswegen meldet euch selber, wenn ihr vielleicht
00:06:22: ... vielleicht auch mal in diesem Podcast erscheinen wollt ...
00:06:24: ... und was Interessantes erzählen habt, ...
00:06:25: ... überlasst die Bewertung, ob das wirklich interessant ist ...
00:06:28: ... oder ob die Themen bei uns reinpassen.
00:06:30: Am besten einfach uns.
00:06:31: Wir sind da natürlich nicht wertend, ...
00:06:32: ... aber schreckt nicht davor zurück, ...
00:06:35: ... weil ihr der Meinung seid, ...
00:06:36: ... dass es vielleicht niemanden interessieren könnte.
00:06:37: Es gibt so viele spannende Sachen ...
00:06:39: ... dort draußen, wo diejenigen, die sie erlebt haben ...
00:06:42: ... oder die vielleicht sogar selber machen, ...
00:06:44: ... je nachdem, um welches Thema es geht, ...
00:06:45: ... die sich deswegen nicht trauen ...
00:06:47: ... und das bitte einfach für dieses Jahr ...
00:06:49: ... als Vorsatz noch nachträglich nehmen, ...
00:06:50: wo wir jetzt auch schon Mitte Januar haben, dass wir da gerne ein offenes Ohr haben und
00:06:56: auch ein offenes Mikro im Zweifelsfall. Ja, es gab auch eine private Neuigkeit.
00:07:00: Ja, genau. Das müssen wir mal erwähnen. Caro, soll ich es der großen Hörerschaft verkünden
00:07:06: oder möchtest du selber gerne erzählen, was sich denn verändert hat?
00:07:08: Ich kann das selber machen. Ich habe nämlich tatsächlich auch gerade überlegt,
00:07:11: wie kriege ich jetzt einen eleganten Übergang hin? Genau, weil ich habe im Dezember geheiratet
00:07:17: tatsächlich und dadurch hat sich auch mein Name geändert.
00:07:20: Also ich meine, wir sprechen uns immer mit Caro und Kai an, sage ich mal.
00:07:23: Also es wird jetzt wahrscheinlich wenige beeinflussen, aber mein Nachname hat sich geändert.
00:07:29: Vielleicht hat der eine oder andere aufmerksame Twitter-Follower das vielleicht schon gesehen anhand unseres Thumbnails oder so.
00:07:36: Ich würde gerade sagen, das ist die Änderung, die unsere Zuhörer jetzt leider erleiden müssen, dass unser Logo,
00:07:41: dass jetzt eine kleine Änderung erhalten wird.
00:07:43: Ja.
00:07:44: Nicht mehr Hagemann stehen, sondern?
00:07:47: Ja, sehr schön. Auch nochmal hier, on air sozusagen, herzlichen Glückwunsch zur Hochzeit.
00:07:53: Ja, danke schön.
00:07:54: Ich hoffe, dass alles so verläuft, wie ihr euch das vorstellt. Ich wünsche euch alles Gute. Und
00:07:59: ja, die Community wird sich mit Sicherheit auch so erkenntlich zeigen und ich gratuliere dazu,
00:08:06: wenn sie das hören. Ja, das aus dem Privaten. Ich weiß nicht, eigentlich haben alle Interviews
00:08:12: oder alle Podcasts irgendwie dann gesagt, was sind deine Vorsätze? Ich finde das total Quatsch.
00:08:16: Also ich finde, man muss nicht raushängen lassen, was meine Vorsätze sind. Wir haben letztes Jahr
00:08:20: in der letzten Folge auch darüber gesprochen, was mit Selbstorganisation und so weiter oder in der
00:08:25: vorletzten Folge war es, was wir mit Selbstorganisation vorhaben, was wir mal ändern
00:08:29: wollen. Ich finde, das ist ein kontinuierlicher Prozess, an dem man arbeitet. Dafür muss man
00:08:33: sich nicht über so eine, ich sage mal, imaginäre Barriere, über die man darüber schreitet,
00:08:37: ins neue Jahr riesenweit greifende Ziele setzen, von denen man sich selber wahrscheinlich am meisten
00:08:42: ... sondern enttäuscht.
00:08:43: Deswegen finde ich, dass diese konstante Veränderung, ...
00:08:46: ... die konstante Versuche, ...
00:08:47: ... die konstanten Versuche, irgendwas zu optimieren ...
00:08:49: ... oder etwas besser zu machen als vorher, ...
00:08:51: ... zumindest für sich persönlich, ...
00:08:52: ... finde ich eigentlich sollte über das ganze Jahr stattfinden.
00:08:55: Deswegen würde ich an der Stelle im Podcast davon absehen, ...
00:08:57: ... konkrete Ziele für das Jahr zu nennen.
00:08:59: Aber, naja, wenn man es jetzt Schwerpunkte nennen würde, ...
00:09:02: ... für den Podcast vielleicht auch, ...
00:09:04: ... vielleicht haben wir da noch ein paar Sachen nicht erwähnt, ...
00:09:06: ... die wir vorhaben.
00:09:07: Caro, hast du eine Idee, wo du jetzt konkret sagen würdest, ...
00:09:11: der zweiten Staffel bei Devs on Tape wird alles besser und insbesondere folgendes Thema?
00:09:16: Also ich, da fängt es schon an, mein erstes Thema, nämlich M. Tatsächlich, also ich habe
00:09:25: dieses Jahr, es steht für mich im Sinne, also tatsächlich mache ich immer, ich definiere
00:09:29: immer gerne so, ja, Jahresthemen, sag ich mal, wo ich mich dann so ein bisschen reinentwickele,
00:09:35: vielleicht, vielleicht mache ich da mehr drin, vielleicht weniger, das ergibt sich dann immer,
00:09:38: aber für mich steht aktuell dieses Jahr so ein bisschen im Sinne von digitalen Medien,
00:09:43: also auch unser Podcast zum Beispiel und dadurch auch so ein bisschen mehr die Professionalisierung,
00:09:48: sage ich mal, auch mit meiner Aussprache. Also ich zum Beispiel, ich tendiere dazu,
00:09:52: im normalen Gesprächen relativ leise zu sprechen, aber manchmal tendiere ich auch dazu,
00:09:57: so ein bisschen zu nuscheln, wenn ich unkonzentriert bin oder ich ärme ganz viel,
00:10:01: wenn ich meinen Satz noch nicht im Kopf zusammengebaut habe, den ich gerne sagen möchte.
00:10:05: Und das möchte ich zum Beispiel, da möchte ich dieses Jahr dran arbeiten. Genau, das steht für
00:10:11: mich da so im Sinne, zumindest im ersten Schritt und im zweiten Schritt, dann eine kontinuierliche
00:10:16: Planung. Also wir haben ja schon uns zusammengesetzt und verschiedene Dinge geplant für dieses Jahr,
00:10:23: was wir gerne machen wollen. Wir planen auch schon, dieses Jahr machen wir so einen richtigen
00:10:27: Contentplan. Das haben wir letztes Jahr am Anfang so ein bisschen ausprobiert, haben es dann aber
00:10:31: ... aber aus Ermangelung von Zeit ...
00:10:34: ... dann nicht weitergemacht und diesmal planen wir das ...
00:10:36: ... zum Beispiel schon im Jahr vor quasi.
00:10:38: Also sowas, das steht so ...
00:10:41: ... für mich in diesem Jahr, also diese ganze ...
00:10:43: ... Contentplanung, bisschen Professionalisierung ...
00:10:46: ... und alles.
00:10:47: Ich glaube neben der ...
00:10:49: ... ich kann mich natürlich an das Erste, was du gesagt hast, ...
00:10:51: ... auch wenn ich das nicht als Vorsatz tatsächlich sehe, ...
00:10:53: ... ich muss ja meiner Linie treu bleiben, ...
00:10:55: ... was ich gerade gesagt habe.
00:10:57: Aber klar, wenn ich jetzt überlege, was möchte ich ...
00:10:59: ... in der zweiten Staffel besser machen, ...
00:11:01: ... ob das jetzt in der Jahreswende ist ...
00:11:02: ... oder halt eben nicht.
00:11:03: Genau.
00:11:05: Wir haben auch einen Kommentar bekommen dazu, ...
00:11:08: ... zu dem Thema mit dem Irms und so was, ...
00:11:09: ... dass es da manchmal bei uns so Cluster gibt.
00:11:11: Ich meine auch für mich erkennen zu können, ...
00:11:13: ... woran es liegt, ...
00:11:14: ... dass so was passiert.
00:11:16: Es ist natürlich immer eine Sache der Vorbereitung, ...
00:11:20: ... aber vor allem auch, dass wenn wir aufnehmen, ...
00:11:22: ... wenn wir diesen Podcast hier machen, ...
00:11:24: ... wenn wir folgendes Mikro sprechen, ...
00:11:25: ... dass wir einen freien Kopf brauchen, ...
00:11:27: ... dass wir unbedingt dafür sorgen müssen, ...
00:11:28: ... das alles drumherum, was vorher passiert ist, ...
00:11:30: ... was währenddessen vielleicht läuft oder was ist, ...
00:11:32: ... dass man da sich so ein bisschen vielleicht Distanz schafft ...
00:11:34: ... und sich voll darauf konzentriert, welches Gespräch man führt.
00:11:37: Wenn man das Zwischentür und Angel macht, ...
00:11:38: ... wenn man das irgendwie noch rein-squeezed ...
00:11:40: ... zu einer bestimmten Zeit ...
00:11:41: ... oder irgendwie zwischen ganz vielen anderen Sachen, ...
00:11:43: ... dann ist man mit den Gedanken woanders, ...
00:11:45: ... kann sich nicht auf das Gespräch konzentrieren ...
00:11:46: ... und dann ist es halt einfach stockend.
00:11:48: Und das kann bei einem normalen Gespräch ...
00:11:50: ... mit einem Menschen natürlich passieren ...
00:11:51: ... und das ist auch vollkommen normal, ...
00:11:53: ... aber wenn man sich eigentlich darauf ausrichtet, ...
00:11:55: ... dass man eine Folge aufnimmt, eine Podcast-Folge, ...
00:11:57: ... wo hinterher viele Menschen zuhören ...
00:11:59: ... oder zuhören sollen, ...
00:12:00: ... dann sollten diese Sachen eigentlich nicht passieren, ...
00:12:02: ... die man für ein normales Smalltalk-Gespräch ...
00:12:05: ... auf dem Flur vielleicht einfach ...
00:12:06: ... fallen lassen kann.
00:12:07: Das ist mein Anspruch.
00:12:09: Zwischendem sprüngen, ...
00:12:11: ... wenn man den Gedanken fasst, ...
00:12:12: ... was Nächstes anzusprechen, ...
00:12:13: ... dann kommt es dann nochmal vor ...
00:12:14: ... und natürlich dieses einmalige Wort, ...
00:12:16: ... ich versuche das jetzt mal so als Mantra, ...
00:12:18: ... tatsächlich, tatsächlich, tatsächlich, tatsächlich zu sagen.
00:12:21: Ich glaube schon, dass wenn ich eine Aussage treffe, ...
00:12:23: ... dass man davon ausgehen kann, ...
00:12:24: ... dass ich der Meinung bin, ...
00:12:25: ... was ich da gerade sage ...
00:12:27: ... oder sich es nicht mit tatsächlich ...
00:12:28: ... untermauern möchte.
00:12:29: So haben wir viele Dinge, die wir vielleicht ...
00:12:31: ... persönlich an uns verändern möchten ...
00:12:33: ... für den Podcast, damit das Ganze ...
00:12:34: ... noch angenehmer und professioneller wird.
00:12:36: Ich hoffe, dass unsere Hörer ...
00:12:38: ... das Ablegen von diesen ...
00:12:40: ... Kinderkrankheiten oder von diesen ...
00:12:41: ... Angewohnheiten nicht übel nehmen ...
00:12:43: ... und uns natürlich mit ...
00:12:44: ... höherer Qualität, ob es jetzt klappt ...
00:12:46: ... oder halt eben nicht, ...
00:12:47: ... trotzdem gerne hören.
00:12:48: Ja, bestimmt.
00:12:50: Und wir nehmen euch ...
00:12:52: ... immer auch mit auf die Reise.
00:12:53: Also zum Beispiel gibt es ja auch so ...
00:12:56: Trainings, Sprachtrainings für Podcasts zum Beispiel oder sowas und sollten wir sowas machen,
00:13:00: dann würden wir euch natürlich auch eine Zusammenfassung zum Beispiel schildern,
00:13:03: damit ihr, falls ihr ähnliche Probleme habt, sag ich mal in Anführungszeichen,
00:13:07: dass ihr dann da auch mit partizipieren könnt oder dass wir euch dann auch so ein paar Tipps
00:13:12: mitgeben können, die wir auch aus den ganzen Sachen dann mitgenommen haben.
00:13:16: Und ohne groß was zu teasern oder irgendwas anzukündigen, was wahrscheinlich dann doch
00:13:21: nicht klappen wird. Wir hatten über den Gedanken mal gesprochen, wie es denn aussieht mit
00:13:26: ... mit so Vlogging sozusagen.
00:13:27: Wie könnte man denn jemanden auch mitnehmen ...
00:13:30: ... auf die Reisen, die wir zum Beispiel ...
00:13:32: ... auf diese Konferenzen, wo auch Podcasts entstehen, ...
00:13:34: ... wie kann man das auffangen ...
00:13:36: ... und kann man auch vielleicht den ...
00:13:37: ... gewandten Zuhörern hier dieses Podcast ...
00:13:40: ... so ein bisschen an der Reise teilhaben lassen, ...
00:13:42: ... weil da ist ja natürlich noch viel mehr dabei, ...
00:13:43: ... als eigentlich nur dieses eine Gespräch ...
00:13:45: ... oder diese zwei, drei, vier Gespräche, ...
00:13:46: ... die wir auf der Konferenz führen.
00:13:47: Vielleicht ist es mal ganz interessant, ...
00:13:49: ... uns da zu folgen dabei.
00:13:50: Das ist etwas, was ich gerne ...
00:13:53: ... was ich gerne weiter verfolgen würde, ...
00:13:55: ... diese Idee, das auch mal auszuprobieren und ...
00:13:56: ... einfach mal gucken, ob wir das hinkriegen ...
00:13:58: ... oder ob wir das schaffen können.
00:13:59: Wie es jetzt ist, in welchem Format es ist, ...
00:14:01: ... ob es jetzt Bilder sind, ob es ein Video ist, ...
00:14:03: ... was es auch immer sein wird, wir werden euch ...
00:14:05: ... mehr daran teilhaben lassen, was wir so machen.
00:14:07: Wir werden sehen, ob es euch interessiert ...
00:14:08: ... oder halt auch eben nicht.
00:14:09: Wir versuchen das zu machen und dazu gehört ...
00:14:12: ... natürlich auch, dass wir in solchen Folgen ...
00:14:13: ... hier, wo wir keine Gäste haben, auch ein ...
00:14:15: ... bisschen in diese Richtung sprechen, ...
00:14:16: ... nicht nur rein technische Themen haben, ...
00:14:17: ... sondern vielleicht auch, was wir gemacht haben, ...
00:14:19: ... damit wir uns selber weiterentwickeln.
00:14:21: Da werden Themen dabei sein, die euch interessieren und auch teilweise bestimmt auch Sachen, wo ihr
00:14:26: dann vielleicht nicht ganz so euer Favorite-Thema drin seht. Aber wir nehmen euch einfach mit und
00:14:31: wir werden da für dieses Jahr einfach mal einiges planen und gucken, in welcher Form wir das weiter
00:14:37: treiben oder in welcher Form halt eben auch nicht. Zum Thema spannende Themen. Jetzt können wir mal
00:14:42: da reinkommen, was unserem Titel dieses Podcast hier, gerade dieser Folge ein bisschen näher
00:14:46: kommt. Wir haben das letzte Jahr mit dem Thema, mit dem Philipp Hartenfeller, mal
00:14:51: angeschnitten, dieses Thema AI. Und da möchte ich gerne einfach noch mal ein
00:14:55: bisschen, oder möchten wir halt gerne auch einfach noch mal ein bisschen näher
00:14:57: darauf eingehen. An der Stelle noch mal erwähnt, wir reden zwar hier, wir
00:15:01: versuchen das auch alles zu übermitteln, das Wissen, was wir so gesammelt haben,
00:15:04: aber wir sind keine ausgewiesenen Spezialisten, was das angeht. Auch dazu
00:15:08: ein kleiner Teaser, der absolut überhaupt keine konkrete Ankündigung ist,
00:15:14: ... sondern einfach nur mal so ein Zeichen, ...
00:15:17: ... wir möchten gerne dieses Jahr auf jeden Fall ...
00:15:18: ... auch noch mehr zu diesem Thema AI machen, ...
00:15:20: ... doch vielleicht Gesprächspartner finden, ...
00:15:22: ... die sich in dem Thema weitaus besser auskennen als wir.
00:15:24: In dieser Folge, jetzt möchten wir auf das Thema AI ...
00:15:27: ... und alles, was da so zugehört, ...
00:15:28: ... mal ein bisschen näher drauf eingehen, ...
00:15:29: ... was wir quasi in der letzten Zeit ...
00:15:32: ... aufgesaugt haben an Wissen ...
00:15:33: ... und vor allem auch seit der letzten Folge.
00:15:35: Caro, du hast mir erzählt, dass du ...
00:15:36: ... jetzt in unserer kleinen Podcast-Pause ...
00:15:39: ... das nächste Rabbit Hole gefunden hast ...
00:15:41: ... und dich in das Thema AI reingefuchst hast.
00:15:43: Das würde mich natürlich jetzt interessieren, ...
00:15:44: ... was hast du rausgefunden, wie hast du dich ...
00:15:46: ... in diese Richtung begeben?
00:15:47: Ja, also erst mal hatte ich mich schon in Vorbereitung ...
00:15:51: ... an das Interview mit dem Philipp so ein bisschen ...
00:15:53: ... erkundigt, was es so bei YouTube gibt.
00:15:56: Das ist so meine Go-To-Plattform, ...
00:15:58: ... um erste Kontakte zu sammeln.
00:16:00: Und wie das mit Algorithmen dann so ist, ...
00:16:03: ... schlägt einem YouTube dann natürlich immer mehr vor.
00:16:06: Und dann ist man auf einmal in so einer Technik-Bubble, ...
00:16:08: ... wo dann ganz, ganz viele ...
00:16:10: ... YouTube-Videos und Sachen über AI erzählt werden.
00:16:13: Wobei natürlich auch das Thema jetzt sehr aktuell durch die Veröffentlichung von Chattyptee
00:16:18: und diese ganzen KI-Art oder KI-Kunst und so, die jetzt so der breiten Masse zur Verfügung
00:16:28: gestellt werden, sorgt natürlich auch dafür, dass so Mainstream-YouTuber, nenne ich es
00:16:33: jetzt einfach mal, auch darüber sprechen.
00:16:36: Und dadurch, ja, habe ich, also durch das Interview habe ich so ein bisschen den Anstoß
00:16:40: bekommen.
00:16:41: schon überlegt, ob ich zum Beispiel GitHub Copilot auch selber mal ausprobiere, hat es dann aber
00:16:46: bisher nicht gemacht und irgendwie hat das Interview dann dazu geführt, dass ich da richtig
00:16:51: Lust drauf hatte, mich da mehr zu beschäftigen und ja, hier mal zu gucken und da mal zu gucken
00:16:56: und ja, so ein paar Tools auszuprobieren. Das ist ja, ChatGPT ist ja nicht das einzige zum Beispiel.
00:17:01: Was hast du denn ChatGPT gefragt?
00:17:03: Oh, ich habe ChatGPT mehrere Sachen gefragt. Also einmal habe ich dann angefangen,
00:17:14: ich habe einfach mal angefangen, mich da ein bisschen so ranzutasten. Zum Beispiel habe
00:17:18: ich versucht, also ich wusste ja zu dem Zeitpunkt schon, wusste ich, dass ChatGPT auch Programmcode
00:17:23: zum Beispiel schreiben kann. Deswegen habe ich erst mal einfach andere Sachen ausprobiert,
00:17:26: die jetzt, ich sage mal, nicht so eindeutig und technisch sind und habe denen gefragt,
00:17:31: als Beispiel, hey, ich habe das und das in meinem Kühlschrank, kannst du mir ein Rezept dazu empfehlen?
00:17:38: Dann hat er halt ein Rezept als Fließtext runtergeschrieben. Da habe ich gesagt,
00:17:41: nee, danke schön für das Rezept, kannst du mir das bitte auch wie ein Rezept aufschreiben,
00:17:45: also Schritt-für-Schritt-Anleitung? Hat das auch gemacht, hat das dann eben als
00:17:49: Schritt-für-Schritt-Anleitung aufgeschrieben. Dann kann man halt zum Beispiel auch sagen,
00:17:53: nee, das schmeckt mir aber nicht, kannst du das und das vielleicht, ich möchte jetzt gerne in
00:17:58: die Richtung was essen oder so und dann tippt er dir das zusammen. Das war sehr beeindruckend,
00:18:03: ein bisschen unterwältigend war tatsächlich die, zum Beispiel habe ich eine Frage gestellt,
00:18:09: hey wie kann ich innerhalb eines Jahres eine Million Euro kriegen oder halt verdienen,
00:18:15: keine Ahnung und einfach mal um so ein bisschen abzutasten, was dann da so geht und da war
00:18:21: tatsächlich, da hat er mir eine Antwort rausgeschmissen, was so jedes x-beliebige
00:18:25: generische YouTube-Video hätte sein können von diesen ganzen Finanzinfluencern, die halt einem
00:18:30: einfach immer das Gleiche sagen. Also total banal die Antwort, aber gut. Und ja, in Vorbereitungen
00:18:38: auf diese Folge beispielsweise habe ich ihn auch gefragt, weil mich einfach so ein bisschen auch
00:18:44: der - jetzt steige ich natürlich schon in das Thema an - aber mich würde auch einfach der Impact für
00:18:49: die Umwelt zum Beispiel interessieren, für die Serverfarm, wo diese ganzen AI-Sachen drauf laufen
00:18:53: oder wo die Modelle zum Beispiel trainiert werden. Und da habe ich Chachipiti halt gefragt,
00:19:01: hey, wie viel Strom verbrauchst du denn? Oder wie viel CO2? Also Strom ist natürlich eine
00:19:06: bessere Messbarkeit, sag ich mal. Und in meinem Kopf ist diese KI, verordne ich immer noch so
00:19:14: ein bisschen mehr in diesem Science-Fiction-Bereich ein, wo der Computer quasi ein eigenes Wesen hat,
00:19:19: dass ich das selber denken kann oder es zumindest simulieren kann.
00:19:22: Und in meinem Kopf war es dann halt so, ja, ChattyPT weiß ja,
00:19:26: auf welchem Server es läuft.
00:19:28: Es weiß ja wahrscheinlich, wo es steht, also wo die Server stehen.
00:19:31: Und dadurch kann es mir diese Frage bestimmt auch easy beantworten.
00:19:35: Und natürlich ist dem nicht so, weil das wird wahrscheinlich
00:19:39: in irgendeiner VM laufen oder auf irgendwelchen einzelnen Strukturen.
00:19:44: Dann wird er wahrscheinlich nicht mal Zugriff auf die Maschine haben.
00:19:48: da irgendwie so ein Kilowattstunden Messgerät haben, wo er dann drauf lesen kann, wie viel
00:19:56: Strom er verbraucht. Aber ich fand die Frage trotzdem interessant und dann hat er mir halt
00:19:59: gesagt, naja, ich bin halt ein computerbasiertes Modell und ich laufe auf Servern und die Server
00:20:04: verbrauchen so viel Strom, wie sie halt skaliert sind und wie die äußeren Gegebenheiten, also zum
00:20:09: Beispiel auch Klimaanlage und Co. dann halt an Strom verbrauchen. Und das war halt für mich dann
00:20:14: so ja danke für nichts aber im endeffekt habe ich daraus halt auch mitgenommen dass es wird ja auch
00:20:22: überall hat gesagt ja und verliehen wir jetzt bald alle unsere jobs und sowas wurde so ein bisschen
00:20:27: ja die wie sagt man die sauer durch soft getrieben die kuh ich glaube heute ist auch so eine folge
00:20:33: wir versuchen definitiv mehr floss zu bringen die wir dann doch nicht ganz also ihr wisst was ich
00:20:38: meine es wurde halt überall gesagt ja und verliert jetzt die ganzen leute ihre jobs und auch
00:20:42: Programmierer, verliehen Programmierer die Jobs, weil ChattiPiti Programmcode
00:20:47: ausspucken kann. Und im Endeffekt nehme ich halt für mich daraus mit aus dem
00:20:50: Herumprobieren. Ja, es kann coole Sachen, zum Beispiel diese Rezeptgeschichten und
00:20:56: so, fand ich echt nice, dass er das so von sich aus auch so durchgenerieren
00:21:01: konnte. Aber auf der anderen Seite wird es halt nur das können, womit es halt
00:21:05: trainiert wurde. Und also zumindest jetzt im ersten Step. Wir sind ja noch relativ
00:21:10: früh in der ganzen KI-Phase und Entwicklung. Es kann sich natürlich alles noch weiterentwickeln
00:21:15: oder wird es noch, aber so aktuell, zum Beispiel auch Programm-Codes, wird halt nur den Programm-Code
00:21:21: ausspucken, den es dann auch irgendwo gefunden hat und mit dem es trainiert wurde.
00:21:25: Also ohne dein Modell oder dein Versuch, mit dem Rezept jetzt genau gelesen zu haben oder
00:21:31: gesehen zu haben. Ich stelle mir vor, dass wenn du ein Rezept oder wenn du sagst, ich habe das im
00:21:35: Kühlschrank, hast du ein Rezept für mich und dann sagst du, kannst du mir das bitte in der Form aus?
00:21:39: Das sind ja alles Patterns, alle Strukturen, die kann er anhand von Keywords erkennen.
00:21:44: Chitchipity erkennt dann, okay, hier will eine andere Formatierung stattfinden und da gibt es ein Keyword, das entscheide ich jetzt so.
00:21:50: Und dann zu sagen, ich mag zum Beispiel keinen Knoblauch, kannst du mir einen Ersatz dafür vorschlagen?
00:21:56: Und da kommt in dem Rezept eine Alternative für Knoblauch, die man dafür verwenden kann und die Mengenangabe, dass es zusammenpasst.
00:22:02: passt. Für mich ist das gar nicht so dieses Gefühl, dass ich mit einem intelligenten Wesen
00:22:06: spreche, wo ich jetzt, wie du gesagt hattest, erwarten würde, dass es zum Beispiel auf der
00:22:09: Maschine, auf der es läuft, selber auslesen kann, wie viel der Verbrauch jetzt gerade ist und so
00:22:14: weiter. Und diese Intelligenz hätte, okay, ich muss jetzt mit meinen internen Apis da und da sprechen,
00:22:18: dass die Intelligenz dafür da ist, sondern einfach nur dieses immense Sparen von Zeit dadurch. Also
00:22:26: wie lange dauert das, bis ich mir ein Rezept rausgesucht habe, was mir gefällt und wo die
00:22:29: Rezept, die die Zutaten alle zu denen in meinem Kühlschrank befindlichen Lebensmitteln passt.
00:22:34: Dann den nächsten Step zu machen, dass ich alles schön runterzuschreiben, um es gegebenenfalls
00:22:38: auszudrucken oder für später noch mal zu archivieren, damit man es noch mal kochen kann,
00:22:42: wenn es gut war. Und dann auch noch zu sagen, ich möchte jetzt das und das ersetzen, schlag
00:22:46: mir doch was Alternatives dafür vor. Ohne diese Kenntnisse würde ich da Ewigkeiten für brauchen.
00:22:51: Wenn ich ChatGPT frage, dann ist es natürlich nur eine Frage der Rechenpower, wie viel Arbeit das
00:22:56: ... das jetzt für das System ist.
00:22:57: Eine einzelne Zutat, ...
00:22:59: ... die jetzt nicht unbedingt im Gesamten ...
00:23:00: ... berücksichtigt wird, ...
00:23:01: ... aber wie kann ich eine bestimmte Zutat ersetzen, ...
00:23:04: ... ohne dass das Fachwissen bei mir da ist, ...
00:23:06: ... könnte das die Maschine machen, ...
00:23:08: ... die bräuchte halt nur so und so viel Rechenleistung ...
00:23:10: ... und macht das dann für dich.
00:23:12: Genauso mit dem Code.
00:23:13: So eine AI, die könnte oder so eine KI, ...
00:23:17: ... die kann halt hingehen und sagen, ...
00:23:19: ... ich habe diesen Job hier 25.000 Mal ...
00:23:21: ... schon alleine in der letzten Stunde gemacht, ...
00:23:22: ... ich weiß jetzt wie ich deine ganzen For Loops ...
00:23:24: ... und weiß ich nicht, was für Sachen ...
00:23:26: ... aufschlüsseln kann ...
00:23:27: ... oder noch besser zusammenfassen kann.
00:23:28: Das ist eine Operation, ...
00:23:29: ... die ist einfach super schnell gemacht ...
00:23:31: ... und die kann mir Zeit sparen.
00:23:32: Das ist das, was mich einfach beeindruckt ...
00:23:34: ... und wo ich denken würde, ...
00:23:35: ... dass das mein Leben ...
00:23:36: ... sowohl als Entwickler ...
00:23:38: ... als auch vielleicht in meinem Privatleben ...
00:23:39: ... irgendwann richtig beeinflussen könnte.
00:23:41: Wenn ich Siri oder Alexa fragen würde, ...
00:23:44: ... sorry für alle Zuhörer, die gerade auf laut hören, ...
00:23:47: ... aber wenn ich die beiden jetzt fragen würde, ...
00:23:50: ... wie ich eine Million verdienen würde, ...
00:23:51: ... dann würde ich sagen, ...
00:23:52: ... es tut mir leid, ...
00:23:52: ... das kann ich dir leider nicht beantworten.
00:23:54: Oder wenn ich das wüsste, wäre ich nicht hier.
00:23:56: Oder irgendeine ironische Antwort.
00:23:58: Wenn es aber eine Möglichkeit gäbe,
00:24:00: das ist garantiert die Zukunft, über die wir hier sprechen,
00:24:02: dass diese Systeme,
00:24:04: oder vielleicht auch ein neues System, was auf den Markt kommt,
00:24:06: auf der Basis von OpenAI-Technologien
00:24:08: oder einer alternativen, vergleichbaren
00:24:10: Technologie läuft, dann werden die Antworten,
00:24:12: die da zurückkommen, wesentlich
00:24:14: besser und detaillierter.
00:24:16: Die Rechenpower,
00:24:18: die dafür benötigt wird, das ist jetzt mit Sicherheit
00:24:20: ein riesen Ding.
00:24:22: ... wie viele Server da stehen, was das für Kosten sind, ...
00:24:25: ... die dahinter stecken und wer die alle trägt ...
00:24:27: ... und wie kann dieses Modell, es wächst ja jeden Tag weiter, ...
00:24:31: ... desto mehr es benutzt wird, wächst es auch immer weiter.
00:24:33: Das heißt, es müssen irgendwie technisch gesehen ...
00:24:35: ... am anderen Ende irgendwo mehr Festplatten ...
00:24:38: ... in einen Rack geschraubt werden oder in, ...
00:24:40: ... weiß nicht wie viel, HE-Server.
00:24:41: Da muss nachgeschoben werden, ...
00:24:43: ... da müssen weitere Racks angebaut werden, ...
00:24:44: ... damit da neue Server reinkommen ...
00:24:46: ... oder neue Zusammenschlüsse von Pharma gemacht werden, ...
00:24:49: ... damit das Ganze betrieben werden kann.
00:24:51: Wenn wir dann aber sehen, dass die Rechenleistung in der gleichen Geschwindigkeit gesteigert wird,
00:24:58: dass wir mit den Apple M1 und M2 Chips oder mit neural engine Chips, die Apple auch zum Beispiel herstellt,
00:25:05: wenn da nochmal von der Hardware jetzt mehr in diese Richtung gegangen wird
00:25:08: und solche Operationen, die da stattfinden, nochmal optimiert werden auf gewissen Chips,
00:25:13: dann haben wir da irgendwann so viel Rechenleistung, dass das, was da in so einem Modell passiert,
00:25:18: abgesehen von Festplattenspeicher, der wahrscheinlich nicht so schnell sich
00:25:21: reduzieren ließe, werden diese Operationen viel schneller von viel weniger
00:25:25: Hardware und dementsprechend auch viel weniger Belastung für die Umwelt
00:25:28: funktionieren und ich glaube dann passiert das. Und noch mal zu diesem
00:25:32: einen langen Block, den ich sage, das sind alles Gedanken, die mir gerade im Kopf
00:25:36: schwirren. Wenn wir jetzt darüber sprechen, wie schnell sich E-Autos zum
00:25:41: Beispiel entwickelt haben und wie sich generell Computer entwickelt haben und
00:25:44: reden hier über eine Perspektive von den nächsten zwei bis fünf Jahren vielleicht. Was sich in dieser
00:25:49: Zwischenzeit alles tun kann, ich glaube, das können wir uns jetzt alles noch gar nicht ausmalen. Das
00:25:53: ist gar nicht zu weit gegriffen zu sagen, dass wir innerhalb der nächsten Jahre garantiert eine
00:25:57: Sprachengine auf unseren Boxen zu Hause oder im Handy haben werden, die weitaus komplexere
00:26:01: Antworten geben kann auf Fragen, die wir stellen. Ja, also ich wollte mich jetzt auch nicht so
00:26:06: negativ anhören. Also es ist schon sehr beeindruckend, wie sehr oder wie gut die
00:26:12: natürliche Sprache übersetzt werden kann bzw. aufgenommen und auch verstanden und dann als
00:26:20: Ergebnis zurückgegeben werden kann. Wenn dann nicht so richtig Antworten da sind, dann wiederholt
00:26:27: das Gefühl alles, was man früher auch in der Schule gerne mal gemacht hat. Wenn man auf eine
00:26:30: Textfrage keine Antwort hatte, dann hat man einfach alles reingeschrieben, wovon man dachte,
00:26:34: dass das vielleicht irgendwie damit zu tun hat. Das wirkt dann schon so, aber gerade zum Beispiel
00:26:40: habe ich auch schon mit APIs rumgespielt. Also ich habe mir eine API generieren lassen,
00:26:46: habe ihn so ein bisschen nach ein paar Konzepten gefragt oder es, ich habe es nach ein paar
00:26:50: Konzepten gefragt. Und dann habe, also bei Chats GPT ist es so, man kann halt eine Frage stellen
00:26:58: und man kann dann den, also der Verlauf dieser Frage wird automatisch gespeichert. Und das ist
00:27:03: schon mal ein Tipp, den man so geben kann, dass diese Fragen alle in einem Kontext sind. Also
00:27:08: man hat dann links so eine Bar, sag ich mal, wo man neuen Chat öffnen kann. Und aber alle Fragen,
00:27:13: die ich innerhalb eines Chats stelle oder alle Aussagen, die ich dort treffe, das ist quasi in
00:27:19: einem Gesprächsverlauf. Das heißt, man kann sich auch auf frühere Antworten von ChatGPT beziehen.
00:27:23: Und das zum Beispiel habe ich dann gemacht. Ich habe ihn halt gefragt nach bestimmten Konzepten,
00:27:27: habe ihm gesagt oder habe es gefragt, ob es mir denn eine API zum Beispiel zusammenbasteln kann.
00:27:39: Dann habe ich gesagt, okay, ich finde die Formatierung nicht so cool. Kannst du dieses
00:27:42: ändern? Kannst du noch jenes daran ändern? Und mit jedem Step hat es den Code dann entsprechend
00:27:48: angepasst nach meinen Wünschen. Und es hat mich sogar verstanden. Also zum Beispiel habe ich so
00:27:52: was gesagt wie "Hey, ich möchte gerne, dass die Ist-Gleichs alle gleich eingerückt sind",
00:27:58: also dass das quasi eine vertikale Linie, ich glaube, Horizont… vertikale Linie,
00:28:06: dass das alles in einer vertikalen Linie oder in einem Korridor quasi ist. Und der hat das
00:28:11: dann tatsächlich auch verstanden und hat es dann entsprechend angepasst. Und man kann das auch oft
00:28:17: auf Deutsch machen. Auf Englisch funktioniert es noch besser als auf Deutsch, aber immerhin kann
00:28:23: er auch die Sprache dann entsprechend verstehen und ich kann auch innerhalb eines Chats die
00:28:27: Sprachen wechseln. Das funktioniert auch und man kann sich dann auch so kleinere Projekte,
00:28:32: sage ich mal, zusammen basteln. Also selbst wenn er dann sagt, also wenn ich ihn jetzt fragen würde,
00:28:37: bastel mir mal bitte eine Webseite zusammen. Wie macht man das? Liste mal bitte die Schritte auf.
00:28:43: dann listet er dann eben die Schritte auf, Schritt 1, Schritt 2, Schritt 3 etc. Und dann kann man
00:28:48: dann zum Beispiel auch sagen, gib mir mal bitte ein Beispiel für Schritt 1 und gib mir ein Beispiel
00:28:52: für Schritt 3 und dann kann man das Ganze auch noch weiter verfeinern. Also sowas, das ist schon
00:28:57: sehr beeindruckend, dass das soweit schon ist. Vor allen Dingen, wenn ich mir vorstelle,
00:29:01: auf manchen Webseiten gibt es so Chatbots und manchmal sind die ganz, ganz weird und verstehen
00:29:07: ... auch so ein entferntes Nicht, was ich eigentlich von denen möchte.
00:29:10: Und wenn man sich das dann daneben stellt, ...
00:29:14: ... dass man eigentlich den Stand der Dinge, ...
00:29:16: ... den man so kennt von vielen Webseiten ...
00:29:18: ... und dann dieses Chatty-Petty daneben stellt, ...
00:29:22: ... das ist schon wirklich, also das sind ...
00:29:23: ... Quantensprünge, die man da ...
00:29:25: ... Quantensprünge groß, ...
00:29:26: ... ja, ne, also riesige Sprünge.
00:29:29: Du musst einfach nur hinterhängen, ...
00:29:31: ... sag ich ja immer, ...
00:29:32: ... oder ich sag ja immer davor, ...
00:29:34: ... dann kannst du super auch eigene Sprichworte ...
00:29:36: ... und auch super Redewendungen selber erfinden.
00:29:37: Das haben wir gelernt.
00:29:38: Das können wir auch zur Qualität ...
00:29:40: Ja, oder so.
00:29:41: Ich verstehe das total.
00:29:44: Das ist im Vergleich.
00:29:45: Früher, das waren halt auch aber die Vorgänger ...
00:29:47: ... von Chat-GPT oder von dieser Art und Weise, ...
00:29:49: ... wie das funktioniert.
00:29:50: Also früher hatten wir, ...
00:29:51: ... da gab es Online-Dienste, wo man ...
00:29:53: ... gewisse Fragestellungen, Begrifflichkeiten ...
00:29:56: ... zusammenstellen konnte.
00:29:57: Und dann konnte man darauf Antworten vorgeben ...
00:29:58: ... und desto detaillierter und desto umfangreicher ...
00:30:01: ... man das gemacht hat, desto besser war auch der Chatbot.
00:30:03: Ich nenne besser, zeige ich jetzt mal Quotes.
00:30:05: Weil dann hat das Einzige, was AI oder die künstliche Intelligenz, die dahinter steckte,
00:30:10: was er da tatsächlich auch überhaupt nicht viel gemacht hat, war aus dem Satz,
00:30:15: der da geschrieben wurde, zu gucken, welche Begrifflichkeiten davor kommen und welche
00:30:19: Reihenfolge die waren und wie wahrscheinlich das, was derjenige geschrieben hat, mit dem
00:30:24: Übereinstimmen, was ich vorher reingefüttert habe. Und dann kommt die Antwort zurück.
00:30:28: Gibt sich also für jemand viel, viel Mühe und sagt bei so einem Handyanbieter zum Beispiel,
00:30:32: ... wenn jemand fragt, wie lange muss ich im Vorfeld ...
00:30:37: ... meinen Vertrag kündigen, damit ich nicht noch ...
00:30:40: ... in eine Verlängerung komme.
00:30:41: Dann liest das System halt aus, okay, der möchte ...
00:30:44: ... kündigen, da steht das Wort kündigen drin, ...
00:30:46: ... das wird nach einem Zeitraum gefragt durch das ...
00:30:47: ... Wort wie lange oder durch die Worte wie lange ...
00:30:50: ... im Vorlauf oder wie auch immer.
00:30:52: So erkennt das System das und kann dir mit recht ...
00:30:54: ... hoher Wahrscheinlichkeit am Ende sagen, da wird ...
00:30:57: ... dann berechnet, wie hoch die Wahrscheinlichkeit ...
00:30:58: ... ist, dass das das Zielführende ist, was da ...
00:31:00: ... gefragt wurde und dann kann da zurück ein Link ...
00:31:02: ... kommen, der darauf verweist, wie lange die ...
00:31:03: ... Kündigungsfrist ist oder ein Antwortsatz, der ...
00:31:05: ... dann da realistisch drauf ist. Und so ist es ...
00:31:08: ... bei den einen Fragen realistischer beantwortet ...
00:31:10: ... worden oder detailgetreuer und bei den anderen ...
00:31:13: ... Fragen halt völlig woanders hin. Also, man ...
00:31:15: ... konnte die Dinge auch ganz einfach austricksen, ...
00:31:17: ... indem man unzusammenhängende Worte dahin schreibt ...
00:31:19: ... und dann kommt zurück, es tut mir leid, das kann ...
00:31:21: ... ich dir nicht beantworten, aber hier ist der ...
00:31:22: ... Kontakt zu einer echten Person, zu einem echten ...
00:31:24: ... Menschen. Was wir jetzt natürlich, womit wir es ...
00:31:26: ... zu tun haben, ist eine viel größere Ausbaustufe, ...
00:31:29: ... die mehr Rechenpower benötigt, die viel größere ...
00:31:31: ... Modelle, Lernmodelle erzeugt.
00:31:34: Ganz klar der nächste Schritt, was dann, wie ich ...
00:31:37: ... gerade schon erwähnt habe, noch mehr Rechenpower, ...
00:31:38: ... noch weniger Raum, vielleicht auch irgendwann ...
00:31:40: ... in unseren Handys selber, natürlich noch mehr ...
00:31:42: ... Qualität mit sich bringt. Wir sind jetzt ziemlich ...
00:31:44: ... überwältigt, weil ChatGPT ist unvergleichbar ...
00:31:46: ... zu dem, was wir vorher kannten.
00:31:48: Und wir sehen jetzt immer mehr Anbieter und Hersteller, ...
00:31:52: ... die da auf diesen Zug aufspringen und sagen, ...
00:31:53: ... ja, hallo, ihr seid alle total überwältigt davon, ...
00:31:57: ... dann bauen wir so was auch.
00:31:58: Ein gutes Beispiel, was ich jetzt auch die Woche gelesen habe, ...
00:32:01: ... ist, dass ich dieses Übersetzungsprogramm, ...
00:32:03: ... was ich persönlich auch für das beste Übersetzungsprogramm halte, ...
00:32:06: ... Deep L heißt das oder Deep Bill, ...
00:32:07: ... ich weiß nicht, wie die Leute das nennen, ...
00:32:09: ... mit einer wahnsinnigen Geschwindigkeit ...
00:32:12: ... mit einer unheimlichen präzisen Antwort darauf, ...
00:32:16: ... wenn ich eine Übersetzung haben möchte ...
00:32:18: ... und der mir mehrere Vorschläge macht ...
00:32:19: ... und das auch verfeinert und wirklich sehr schnell ist ...
00:32:22: ... und tolle UI.
00:32:23: Die haben jetzt angekündigt, ...
00:32:24: ... nachdem die, glaube ich, auch eine neue Runde ...
00:32:26: ... im Funding gekriegt haben ...
00:32:27: ... und ein super Unicorn geworden sind.
00:32:29: Vielleicht machen wir da mal eine andere Folge drüber.
00:32:31: Da haben aber auch schon viele drüber gesprochen, ...
00:32:33: ... was so ein Unicorn ist.
00:32:33: Auf jeden Fall ein sehr, sehr erfolgreiches Startup, ...
00:32:36: ... wurde jetzt auf die nächste Ebene gehoben ...
00:32:38: ... mit richtig viel Finanzierung, ...
00:32:39: ... um jetzt so zu einer richtigen Firma zu werden, ...
00:32:43: ... ein richtiges Unternehmen mit viel, viel Impact.
00:32:45: Und die haben jetzt auch veröffentlicht, ...
00:32:48: ... oder die haben jetzt in einer Professional Variante ...
00:32:50: ... auch die Möglichkeit gegeben, dass es Texte ...
00:32:52: ... polishen kann.
00:32:53: Dass du da Texte reingibst, ...
00:32:54: ... komplette Texte von dir geschrieben ...
00:32:55: ... und dieses Modell geht über deinen Text rüber ...
00:32:57: ... und fängt an die Formulierungen davon zu verbessern.
00:32:59: Und ich glaube, das, was man auch von ...
00:33:01: ... Grammarly, ...
00:33:03: ... das sind einfach alles nur Erwähnungen hier, ...
00:33:04: ... wir haben keine Kooperation mit den ...
00:33:06: ... Machine Learning Firmen, ich glaube, das muss man dazu sagen.
00:33:08: Aber DeepL ist dann hingegangen und hat gesagt, ...
00:33:10: ... wir nehmen jetzt die ganzen Texte, ...
00:33:11: ... so wie Grammarly auch und ...
00:33:13: ... prüfen nicht nur Grammatik, ...
00:33:15: ... sondern wir gucken auch, ob wir die Inhalte der Sätze, ...
00:33:17: ... die da ...
00:33:18: ... reingegeben wurden, ...
00:33:20: ... ob wir die überarbeiten können.
00:33:21: Und das leitet mich natürlich auch wieder ...
00:33:24: ... zu einem weiteren Aspekt des Ganzen.
00:33:27: Wir haben früher einen auf die Finger gekriegt in der Schule.
00:33:31: Also so alt bin ich nicht, das ist wieder nur so ein Sprichwort von mir.
00:33:34: Wir haben einen auf die Finger gekriegt, ...
00:33:36: ... wenn wir einfach nur Hausaufgaben von Wikipedia ...
00:33:38: ... als Quellenangabe hatten.
00:33:40: Also wenn wir Texte genommen haben oder Infos genommen haben ...
00:33:42: ... und haben Wikipedia drunter geschrieben.
00:33:43: Weil dann könnte man auch drunter schreiben, ...
00:33:45: ... irgendjemand aus dem Internet ...
00:33:46: ... und vielleicht noch jemand zweites, der das Probe gelesen hat.
00:33:48: Und wir kennen diese Person nicht, ...
00:33:50: ... wir wissen nicht, ob die Quelle glaubwürdig ist.
00:33:52: Wir überlegen nur, ob das für uns sinnvoll ist, ...
00:33:54: ... das zu übernehmen oder nicht.
00:33:55: Die Frage stelle ich mir jetzt auch.
00:33:57: ... woher kommen diese Informationen, die da drin sind?
00:34:00: Wenn du natürlich nach einem Rezept fragst, ...
00:34:02: ... woher kommt dieses Rezept?
00:34:04: Ist nicht mein, wenn es nicht mehr schmeckt, ...
00:34:05: ... ist es dir im Prinzip egal, ...
00:34:06: ... aber sind die Informationen, die da kommen, ...
00:34:08: ... glaubwürdig für mich?
00:34:10: Wenn ich da nach einer prominenten oder nach einer ...
00:34:12: ... historisch prominenten Person suche, ...
00:34:14: ... dann werde ich da genügend Quellen im Hintergrund haben, ...
00:34:17: ... um das Fact-Checken zu können, ...
00:34:19: ... ob das alles stimmt, was da so steht, ...
00:34:21: ... aber woher holt das System diese ...
00:34:23: ... diese Geschichten?
00:34:24: Das, was wir im typischen Menschenverstand ...
00:34:26: ... oder im normalen Empfinden von uns haben.
00:34:28: Ob wir einer Quelle glauben, ...
00:34:30: ... oder ob wir jetzt der einen großen Boulevardzeitung ...
00:34:33: ... mehr glauben, als wir es einer regionalen ...
00:34:34: ... kleinen Zeitung glauben würden.
00:34:37: Woran stellt diese KI das fest?
00:34:40: Welche ist jetzt eine glaubwürdige Quelle?
00:34:41: Es macht dieses Rating davon, ...
00:34:42: ... liest es einfach unterschiedliche Quellen ...
00:34:44: ... und gleicht das ab und prüft dann ...
00:34:46: ... und gibt es ein internes Rating, ...
00:34:47: ... welche Quellen höher bewertet werden.
00:34:48: Das alles wissen wir nicht.
00:34:51: Auch wenn ChatGPT oder das Team dahinter ...
00:34:53: ... das veröffentlichen würde, was die Hauptquellen sind, ...
00:34:56: wissen wir es immer noch nicht, wie es bei dem nächsten Produkt und bei dem nächsten Produkt ist.
00:34:59: Wir können eigentlich nur darunter schreiben, ich habe die Infos von einer KI aus dem Netz
00:35:03: und die hat das von wer weiß wo.
00:35:04: Ja, das stimmt.
00:35:06: Und ich finde, das macht auch nochmal so ein ganz anderes, spannendes Feld auf,
00:35:11: nämlich wie es trainiert wird.
00:35:13: Und ich finde, das ist an einem anderen Beispiel von was,
00:35:19: also was gerade halt, ja ich sage mal einen Hype erlebt,
00:35:22: ist das an einem anderen Beispiel besser zu erklären, nämlich an Bildern. Also es gibt
00:35:26: ja auch zum Beispiel DALI 2 oder diese Lens App oder so Filter gibt es jetzt mittlerweile
00:35:32: auch auf TikTok oder man kann über Discord auch Bilder generieren oder vielleicht hat
00:35:37: man es auch so mitbekommen, dass vor einigen Monaten ging da auch so ein Rauen durch die,
00:35:41: ich sag mal durch die Gegend, dass zum Beispiel in irgendeinem Künstlerwettbewerb der erste
00:35:47: Platz ein AI-generiertes Bild gemacht haben. Und auch dort ist dann zum Beispiel die Frage zu
00:35:54: beantworten, wie wird denn diese AI trainiert, um diese Bilder zu generieren? Und natürlich wird es
00:36:01: trainiert mit Bildern, die schon da sind. Und das ist ja auch so ein bisschen die Kritik dann an
00:36:07: dem Ganzen, so jetzt auch im Spezifischen an dieser Bildergeschichte, dass ja vielleicht
00:36:12: urheberrechtliche Geschichten ein bisschen schwierig sind, weil man ja dort zum Beispiel
00:36:17: auch Bilder von anderen Künstlern, werden dort analysiert und auseinandergenommen und dann fließt
00:36:22: dann quasi, ich sag mal in Anführungszeichen, die Arbeit, wenn man das so ein bisschen darauf
00:36:28: anwenden kann, fließt die Arbeit in genau diese künstliche Intelligenz, die dann das Ganze wiederum
00:36:34: verarbeitet und dann daraus, ich sag mal, was zusammenmatscht und dann wieder was anderes ausgibt.
00:36:41: Hallo, hier ist Caro aus dem Off.
00:36:43: Mir ist ein Fehler unterlaufen.
00:36:45: In den folgenden Sätzen und in den folgenden Minuten werde ich die App Lens erwähnen.
00:36:51: Ich meinte natürlich Lensa.
00:36:53: [Ping]
00:36:55: Und ganz spannend fand ich das, in der Kritik gab es zum Beispiel,
00:37:00: also entweder war das die Lens-App oder der TikTok-Filter oder im Zweifel alles,
00:37:04: dass die dort, also man hat dort gesehen,
00:37:08: dass dort zum Beispiel auch Unterschriften von Künstlern von den Originalbildern auf den generierten Bildern drauf waren.
00:37:15: Also zum Beispiel dieser Lens-App kann man ja verschiedene Bilder von sich aus verschiedenen Winkeln aufnehmen, dort hochladen
00:37:23: und dann schickt er das mit einer API zu einem Service, zu einem AI-Service
00:37:29: und dann kriegt man quasi Bilderversionen davon zurück.
00:37:33: Also dann hat man so Anime-Comic-Style und irgendwelche 3D-Bilder von sich, wo man dann
00:37:38: als Astronaut irgendwo rumläuft oder so. Und dort sind teilweise Unterschriften von den
00:37:44: Künstlern der Originalbilder auf den Bildern generiert worden. Und das ist natürlich offensichtlich,
00:37:50: dass das halt ja dann damit trainiert wurde. Und das sorgt natürlich jetzt auch für Unmut,
00:37:56: sag ich mal, vielleicht auch bei Künstlern, die das dann natürlich ursprünglich erstellt haben,
00:38:01: dann irgendwie zig Stunden daran sitzen, genau dieses Bildmaterial herzustellen.
00:38:07: Und dann wird das einfach von der KI genommen und umgewandelt.
00:38:10: Und dann gibt es andere Leute, die da irgendwie 20 Stück am Tag generieren
00:38:14: und dann jeden Tag irgendwie so ein neues AI-Bild posten.
00:38:17: Das vielleicht noch als NFT.
00:38:19: Ja, wer weiß.
00:38:21: Genau.
00:38:21: Also der Hype ist ja auch schon wieder vorbei, aber vielleicht auch als NFT.
00:38:25: Und das ist dann halt eben auch eine Kritik davon.
00:38:29: Also wir haben es ja vorhin eingangs schon gesagt, irgendwie muss das Ganze ja trainiert werden.
00:38:33: Das heißt, auch bei JGPT wird das halt der Fall sein, irgendwo im Internet wird es sich diese
00:38:38: ganzen Informationen rausgesucht haben. Ich sage jetzt einfach mal ganz schnödel,
00:38:41: vielleicht bei Google irgendwie alles gezogen oder so und dann halt analysiert und verdichtet.
00:38:48: Und bei Bildern ist das natürlich genau der gleiche Fall. Also irgendwie muss das Ganze
00:38:52: trainiert werden. Es nimmt sich halt eine Datenbasis, analysiert diese Datenbasis und
00:38:57: generiert dann entsprechend daraus halt die verschiedenen Sachen.
00:39:00: Findet da aber, das ist jetzt auch eine interessante Fragestellung, glaube ich,
00:39:05: findet da irgendwas anderes statt, als es so auch in der Realität unter Menschen stattfindet? Also,
00:39:10: ich will jetzt nicht irgendwie die Kunst oder die Künstler, das Künstlertum klein machen oder
00:39:19: niedermachen, aber kein Künstler erfindet sich oder irgendwas neu. Es sind immer die Einflüsse,
00:39:26: dir ein Mensch und das trifft glaube ich auf all diese Themen, über die wir hier
00:39:29: sprechen zu. Keines dieser Modelle funktioniert wirklich super weit entfernt
00:39:34: anders als das, was unser menschliches Hirn auch macht. Es ist natürlich
00:39:38: wesentlich komplexer, was wir machen. Wir sind da auch in der AI noch nicht, ich sag schon
00:39:42: wir, als wir uns da involviert. Also man ist noch bei weitem nicht so weit, die Komplexität des
00:39:48: Hirns darzustellen, aber alles was wir und wenn wir dieses Kunst oder dieses
00:39:52: dieses Künstlertum jetzt mal als Beispiel nehmen. Jeder Künstler ist in seiner Art und in dem,
00:39:57: was er macht, beeinflusst von dem, was er sieht, was er hört und was er vielleicht in irgendwelche
00:40:01: andere Art und Weise wahrnimmt. Das heißt, jemand, der vielleicht ein großer Fan von
00:40:06: irgendeinem bekannten Künstler ist, ich hätte fast Mozart gesagt, von einem bekannten Künstler ist,
00:40:13: der lässt sich auch beeinflussen von den Bildern, die er da sieht oder die er seit Jahren ausschließlich
00:40:18: anguckt und total feiert und wie cool er das alles findet, der schaut sich die Bilder an und mag
00:40:23: vielleicht die Farbgebung oder die bestimmten einzelnen Attribute, die die Bilder von demjenigen
00:40:27: ausmachen. Zum Beispiel Rembrandt, jetzt ist mir doch einer eingefallen. Wenn sich einer ganz viele
00:40:31: Bilder von dem anguckt und fängt selber an zu malen oder kann vielleicht selber malen, da wird
00:40:35: doch hundertprozentig ein Einfluss von dem von ihm wahrgenommenen Rembrandt drin vorkommen. Und
00:40:40: das Gleiche passiert in jeglicher Art bei diesen AI- und KI-Systemen, nur in einer viel, viel
00:40:46: größeren Umfang. Und dass so eine Maschine natürlich mit Leichtigkeit Bilder zusammenpanscht,
00:40:51: die vielleicht - und das ist das einzig Verwerfliche, finde ich - Originalwerke nimmt und Teile oder
00:40:57: Bestandteile davon rausnimmt und die in ein anderes Bild reinplatziert und dann vielleicht
00:41:01: noch retuschiert oder verändert ein bisschen, das ist dann ein 1 zu 1 Copycat. Wenn ich mir ein Bild
00:41:06: an der Wand angucke, ich setze mich hier nun malers, bei mir persönlich wird das Bild danach
00:41:11: überhaupt nicht so aussehen wie das, was ich da an der Wand gesehen habe, also von daher auch kein
00:41:14: Problem. Aber wenn das ein talentierter Künstler ist, der sich zwei Bilder nebeneinander stellt
00:41:19: und dann ein neues Bild malt und versucht, so viele Komponenten von Bild A und Bild B
00:41:23: zusammenzufügen, dann wird man Ähnlichkeiten davon wiedererkennen. Dann würde derjenige damit
00:41:27: vielleicht auch nicht groß an die Öffentlichkeit gehen und sagen, ja, guck mal, hier ist mein neues
00:41:31: Werk. Aber die Art der Verfremdung ist dann letztendlich das. Also man kann sich beeinflussen
00:41:36: lassen von der Farbe, man kann die Motive toll finden, die man gesehen hat und dann lässt man
00:41:40: vielleicht noch sein eigenes persönliches Empfinden und seinen Geschmack einfließen
00:41:43: und malt dann etwas, was man selber toll findet. Ein Haus, was noch nie gemalt worden ist,
00:41:47: aber in den Farben, wie es der Künstler tut, in der Form, wie es der Künstler tut und aus der
00:41:52: Perspektive, wie es der dritte Künstler tut. Das ergibt eine Mischung, aber da fragt auch keiner
00:41:57: nach, von wem hat er sich denn, wie sagt man, inspirieren lassen. Und demnach finde ich das
00:42:02: gar nicht großartig verwerflich, außer wenn tatsächlich Originale übernommen werden und
00:42:08: dann vielleicht wirklich tatsächlich diese Arbeit, die jemand anders da
00:42:11: reingesteckt hat, so in so kürzester Zeit einfach wiederverwendet wird, um sich
00:42:16: selber einen Profit daraus zu schlagen? Ja, also grundsätzlich ist das natürlich
00:42:19: eine hochemotionale Diskussion, muss man auch dazu sagen, weil jetzt natürlich
00:42:24: die Künstler sich vielleicht ein bisschen in Gefahr sehen, sage ich
00:42:29: jetzt mal ganz salopp. Also das Ganze hat ja natürlich noch ganz viele andere
00:42:34: Facetten. Also wie du schon sagst, wird überall auch in der Kunst kopiert. Was ich ganz interessant
00:42:40: fand, war dann so ein anderer Gedankenanschluss noch, dass man als, ich sag jetzt mal freier
00:42:45: Künstler, der natürlich auch über das Handwerk verfügt, solche Bilder herstellen zu können,
00:42:49: in welcher Art auch immer, ob es Digital Art ist oder irgendwas analoges, dass man dort natürlich
00:42:55: auch hier wieder den Fall hat, zumindest aktuell, dass die AI ja nur das kann, was sie schon kennt.
00:43:00: Das heißt, wenn du als Künstler halt eine Vision hast von einem Bild, welches noch nicht existiert,
00:43:06: dann hast du natürlich immer noch ein Alleinstellungsmerkmal. Aber woher kommen denn
00:43:12: Visionen? Gibt es wirklich Visionen oder ist es etwas, was unser Hirn einfach irgendwo aufgenommen
00:43:19: hat, kombiniert hat und uns präsentiert als etwas völlig Neues? Also Inspiration hast du ja immer
00:43:24: irgendwo. Inspiration ist ja in Anfangszeichen immer das, was man sich dann so ein bisschen
00:43:27: abgupfert von der Umwelt, sei es ein Gebäude, sei es irgendwie ein Gefühl oder was weiß ich.
00:43:33: Daraus entsteht dann ja eben solche Kunst. Aber wenn man zum Beispiel mal schaut,
00:43:40: also jetzt abseits von diesen ganzen Filtergeschichten, ich glaube, da sind wir jetzt
00:43:44: durch. Die nehmen halt teilweise Originalwerke und wandeln die ab, so wie du es gesagt hast.
00:43:48: Aber wenn man zum Beispiel, gibt es ja auch so eine Bildergenerierungsgeschichte auch von OpenAI,
00:43:55: Das ist jetzt nur eine von mehreren. Es gibt auch noch andere Anbieter. Dieses Dali 2,
00:44:00: das kann ja auch Bilder generieren. Da kann man auch Stichpunkte angeben und Wörter angeben und
00:44:07: dann zum Beispiel sagen, ich möchte gerne das Ganze in dem und dem Stil. Ich möchte das Ganze
00:44:11: in den Farben, was weiß ich. Und ich finde, da spätestens merkt man, also ich persönlich habe
00:44:18: jetzt noch nichts rausbekommen, wo ich mir jetzt so denke, wow, das sieht jetzt richtig gut aus.
00:44:22: Und ich wundere mich auch immer, wie andere Leute das irgendwie hinkriegen,
00:44:27: dort was richtig Schönes rauszukriegen. Wahrscheinlich liegt es einfach nur an
00:44:30: meinen Stichwörtern oder so, keine Ahnung. Aber wenn man da so ein bisschen
00:44:34: rumprobiert, dann merkt man schon, dass zumindest wenn sich das so quasi, ich
00:44:38: sag jetzt mal, gefühlt komplett aufbereitet und komplett neu gestaltet,
00:44:44: dann merkt man, was da für Probleme hinterstehen. Und dort zum Beispiel ist
00:44:47: ganz konkret der Fall, dass alles, was mit Menschen zu tun hat, also Gesichter,
00:44:50: Hände sowas. Das sieht einfach total gruselig aus. Also so wirklich scary gruselig, dass man davon
00:44:59: Albträume bekommen könnte. Da kann ich auch nur motivieren, das auch mal selber auszuprobieren,
00:45:04: einfach mal ein bisschen rumzuspielen. Da kann man sich auch überraschen lassen. Und tatsächlich
00:45:08: hatte ich auch überlegt, ob ich unser Logo damit irgendwie noch abwandle und hatte dann heute zum
00:45:15: Beispiel auch eine Funktion entdeckt. Das finde ich tatsächlich ganz spannend, wo man Bilder quasi
00:45:19: so weiterzeichnen kann. Also man kann dann ein Bild da hochladen und zum Beispiel ein Kunstwerk von
00:45:25: der Mona Lisa oder so und dann lädt man das da hoch und dann kann man einen Bereich festlegen,
00:45:29: den die AI dann automatisch berechnen soll und dann berechnet der quasi das Bild weiter,
00:45:33: wie das dann ausschauen könnte und bietet einem auch verschiedene Optionen an. Dafür finde ich
00:45:38: das ganz gut. Ja, wie gesagt, bei diesen Lenzgeschichten und sowas da, ja, schwierig.
00:45:45: Da fallen mir direkt zwei Dinge noch ein. Das war noch weit bevor ich mir Gedanken über dieses AI-Thema gemacht habe.
00:45:51: Also Chat-GPT ist natürlich bei uns allen so mega eingeschlagen, dass man sich viel mehr Gedanken darüber macht oder selbstfahrende Autos und so weiter.
00:45:57: Aber da sind mir zwei Sachen eingefallen. Zum einen gab es da mal so ein YouTube-Video, glaube ich war das, oder in irgendwie Social Media ist das so generell überall hochgeladen worden,
00:46:06: dass jemand gezeigt hat, was für eine Performance die GPU von so Grafikkarten leisten kann.
00:46:10: leisten kann. Ich glaube, das war so ein Video oder so ein, ja auf jeden Fall nicht
00:46:15: vielleicht ein Promo-Ding von denen oder vielleicht auch nicht von Nvidia
00:46:18: selber erstellt worden, aber die haben ihre Grafikkarte demonstriert, dass
00:46:21: jemand in einem Tool echt hingegangen ist und hat wirklich nur dunkelbraun, hellbraun,
00:46:26: blau, also dunkles blau, helles blau und dann so ein bisschen weiß übereinander
00:46:30: gezeichnet und hat dann Parameter angegeben, dass es ein Landscape sein
00:46:33: soll. Und dann ist die Software hingegangen und hat unten aus den
00:46:37: braunen Tönen nassen und trockenen Sand gemacht, hat das Wasser dann richtig gemalt und hat dann
00:46:42: natürlich noch Wellen draufgemacht und Schattierungen und leicht transparent Verläufe
00:46:46: in den Sand und an den Himmel gezeichnet mit realistischen Wolken, je nachdem, wie man die
00:46:49: Parameter verändert hat, und mehr oder weniger realistisch. Da habe ich das Ganze noch nicht
00:46:55: als AI oder so wirklich als Machine Learning wahrgenommen, sondern eher nur als, ja gut,
00:47:00: da sind einfach Operationen, Schleifen, die darüber laufen, einfach viel Rechenpower benötigen,
00:47:04: ... um solche Sachen zu machen, aber das ist mit Sicherheit ...
00:47:06: ... vorher irgendwie trainiert worden, ...
00:47:08: ... damit das automatisch passiert, dass der immer Sand, ...
00:47:10: ... immer Wasser und immer den Himmel malt ...
00:47:12: ... und das es halt einfach für eine Kamera toll per Klick macht.
00:47:15: Das war mir gar nicht bewusst, dass es um das Thema geht.
00:47:17: Und ein weiteres Beispiel, das dürfte zu der gleichen Zeit ...
00:47:20: ... gewesen sein, wenn nicht sogar noch ein bisschen früher, ...
00:47:22: ... da haben Leute eine Seite, eine Webseite ...
00:47:25: ... ins Leben gerufen, wo du völlig random Gesichter, ...
00:47:29: ... Menschengesichter, ...
00:47:30: ... Menschengesichter, ja, ...
00:47:31: ... Menschengesichter, Gesichter von Menschen generiert haben, ...
00:47:34: Ich habe gesagt, jeder Mensch, den du hier siehst auf dieser Seite, ...
00:47:36: ... und du konntest dann auf den Knopf klicken ...
00:47:38: ... und dann kam immer wieder ein neues Gesicht, ...
00:47:39: ... keiner dieser Menschen existiert echt.
00:47:41: Und ich konnte es nicht erkennen.
00:47:44: Also ich hätte nie im Leben, hätte ich bei einem dieser Bilder ...
00:47:48: ... gesagt, das ist kein echter Mensch, der da ist.
00:47:51: Da hat jemand tatsächlich ganz viele Fotos, ...
00:47:53: ... ganz viele Bilder von Menschen, von Gesichtern genommen ...
00:47:56: ... und hat die in so ein System reingegeben und hat gesagt, ...
00:47:58: ... ich hätte jetzt ein Gesicht, was in etwa dem entspricht ...
00:48:00: ... und die Haare stelle ich mir vor, die Farbe.
00:48:02: Und dann hat er aus all diesen ganzen verschiedenen Bildern von Gesichtern ...
00:48:06: ... und Modellen, die er daraus erzeugt hat, ...
00:48:08: ... hat er neue Gesichter gezeichnet, ...
00:48:09: ... die von echten Menschen nicht unterschieden werden können.
00:48:12: Und das fand ich beeindruckend.
00:48:14: Habe ich aber auch nicht wirklich hinterfragt, ...
00:48:16: ... wie sowas funktionieren kann.
00:48:17: Und jetzt bei Chetchipiti, ...
00:48:19: ... ich glaube, ich hatte tatsächlich, ...
00:48:20: ... also auch in der Podcast-Pause, ...
00:48:21: ... auch nicht wirklich viel andere Themen im Kopf ...
00:48:24: ... aus dieser Richtung.
00:48:26: Als, wie kann das funktionieren?
00:48:29: Wo sind die Grenzen?
00:48:30: Wo sind die Schnittpunkte davon?
00:48:32: ... worauf müssen wir aufpassen, was kann da passieren, ...
00:48:36: ... wie geht das wohl weiter?
00:48:38: Und es ist halt immer diese Frage zu stellen, ...
00:48:40: ... das ist eigentlich nur dann faszinierend ...
00:48:42: ... und auch nur dann überwältigend, wenn wir uns das selber ...
00:48:44: ... nicht erklären können, was da passiert.
00:48:46: Und Chet Chippiti verliert eine ganze Menge an Magie, ...
00:48:48: ... wenn solche Sachen passieren, wie das, was du ...
00:48:50: ... gestellt hast, die Frage, und die kommt einfach nicht ...
00:48:52: ... richtig zurück. Oder man stellt ganz offensichtlich ...
00:48:54: ... fest, dass da jemand unterwegs war, der das absichtlich ...
00:48:56: ... manipuliert hat, das Ergebnis.
00:48:58: Das habe ich jetzt die Tage nämlich gelesen, da hat einer ...
00:49:00: hat Chet Jippity davon überzeugt, dass 10+10 nicht 20, sondern 25 sind.
00:49:03: Und das war in diesem Kontext gesehen, hat Chet Jippity danach felsenfest behauptet,
00:49:08: dass 10+10 25 sind.
00:49:10: Und da habe ich hinterfragt, inwiefern können wir uns davor schützen,
00:49:16: dass diese ganzen Modelle, diese ganzen Bäume, die da gebaut werden,
00:49:20: diese neuralen Netze, dass die nicht negativ beeinflusst werden.
00:49:24: Gar nicht mal die Frage, wer sich den Spaß erlauben würde
00:49:27: ... oder wer das ernsthaft manipulieren würde, das Ganze.
00:49:30: Aber wie können wir uns denn davor schützen, ...
00:49:32: ... dass diese Systeme nicht aktiv manipuliert werden, ...
00:49:36: ... um Chaos zu stiften?
00:49:38: Das ist, glaube ich, die Frage.
00:49:39: Da kann man Ewigkeiten drüber sprechen.
00:49:42: Du hast es in unserem Vorgespräch schon so toll erwähnt, ...
00:49:46: ... Trolle gibt es immer.
00:49:47: Jetzt ist es an der Software wahrscheinlich selber, ...
00:49:50: ... Trolle identifizieren zu können.
00:49:52: Und ich glaube, das ist etwas, was uns als Menschen ...
00:49:54: ... mit unserem Menschenverstand und mit unserer AI, ...
00:49:56: ... nein, mit unserer Intelligenz ...
00:49:58: ... einfacher fällt, ...
00:49:59: ... mit einer gewissen Erfahrung, ...
00:50:00: ... das zu identifizieren, ...
00:50:01: ... wer wirklich Troll ist und wer nicht, ...
00:50:03: ... weil sonst hätte wahrscheinlich ...
00:50:05: ... so eine Plattform wie YouTube, ...
00:50:06: ... Twitter und Co. kein Problem mit Trollen.
00:50:08: Wie können wir den Chat-GPT ...
00:50:11: ... oder so ein Modell daran hindern, ...
00:50:12: ... Falschinformationen aufzusaugen, ...
00:50:14: ... zu verbreiten?
00:50:15: Da müssen wir uns ja auch vorschützen.
00:50:18: Sobald irgendwie viele Zeitungen, ...
00:50:19: ... das hatten wir in der einen Folge ...
00:50:20: ... mit dem Philipp ...
00:50:21: ... Hartenfeller auch mal angesprochen, ...
00:50:23: ... wir können uns Zeitungsartikel schreiben lassen.
00:50:25: Vielleicht machen das auch viele Zeitungsverleger oder Journalisten so, ...
00:50:29: ... dass sie sich mit den Kerninfos, die sie reingeben, ...
00:50:32: ... einfach einen schönen Text schreiben lassen.
00:50:33: Wie können wir denn uns schützen, ...
00:50:35: ... jetzt uns als Gesellschaft auch schützen davor, ...
00:50:37: ... dass dieses System nicht nur zur Qualitätsanhebung ...
00:50:41: ... unserer Texte oder Sachen, die wir so konsumieren, sorgt, ...
00:50:44: ... sondern auch, dass da nicht einfach gnadenlos ...
00:50:46: ... in die Tonne gegriffen wird?
00:50:48: Das ist eine Fragestellung, die, glaube ich, zu klären ist.
00:50:51: Was hast du da für Gedanken dazu?
00:50:53: Oh, das ist, also ich glaube, das ist halt ein sehr vielschichtiges Problem.
00:50:58: Ich bin sehr gespannt, in welche Richtung das Ganze geht.
00:51:01: Also das Ding ist ja, das System soll ja weiterlernen und es soll ja auch durch den Input weiterlernen.
00:51:08: Das heißt, OpenAI sagt ja auch, sie analysieren halt die Eingaben, die man dort macht,
00:51:14: und lassen das in diese Modelle mit einfließen.
00:51:17: Und dann, wie du schon sagst, wie geht man dann mit offensichtlichen Falschaussagen um?
00:51:24: Wobei ich auch schon ab und an mal gehört habe, also gehört in Anführungszeichen,
00:51:29: gelesen, wahrscheinlich eher in den Kommentaren oder in YouTube-Videos gehört, dass auch
00:51:34: inhaltlich manche sachliche Fragen falsch sein sollen, die ChatsGPT halt zurückgibt,
00:51:40: also die Antworten dann.
00:51:41: Und es ist ja so ein Ding jetzt, dass dann halt viele kommen und sagen, ja, okay, die
00:51:47: ... Hausaufgaben, die man so als Schüler ...
00:51:49: ... oft bekommt, wenn man dann so Aufsätze ...
00:51:50: ... schreiben soll, ...
00:51:51: ... das ist jetzt quasi passé, weil die das ...
00:51:53: ... dann jetzt wahrscheinlich zukünftig alles ...
00:51:55: ... über ChattyPity machen lassen oder ähnliches.
00:51:57: Und ...
00:51:58: ... dann ist natürlich dann eben genau diese ...
00:52:01: ... Fragestellung, was wenn die das ...
00:52:03: ... quasi machen und die Antwort ist offensichtlich ...
00:52:05: ... falsch, also da müssen wir einfach ...
00:52:06: ... so ein bisschen ...
00:52:07: ... ja, ...
00:52:08: ... wie sagt man auf Deutsch?
00:52:10: Awareness, ...
00:52:11: ... ist ja nicht Deutsch, ist Englisch, aber ...
00:52:13: ... dieses Bewusstsein heißt es.
00:52:16: Wie kann man ein englisches Wort Deutsch versprechen, das plötzlich Deutsch ist?
00:52:21: Dass man das Bewusstsein dafür schafft, dass der Outcome nicht immer zu 100 Prozent richtig
00:52:27: ist, weil es von der Maschine kommt, sondern dass man dann trotzdem, also es verführt
00:52:31: ja dazu diese Nutzung.
00:52:32: Und das sei angefangen jetzt bei ChattyBT, aber für uns Entwickler vielleicht auch über
00:52:37: dieses GitHub Copilot, wo wir uns letztes Jahr unterhalten haben.
00:52:41: Das habe ich jetzt halt auch ausprobiert.
00:52:42: Ab und an mal sieht das halt so taktisch richtig aus, aber inhaltlich ist es eigentlich falsch.
00:52:49: Man muss da wirklich aufpassen, weil man wird ein bisschen faul tatsächlich, dass man dort nicht
00:52:55: dem einfach blind vertraut, sondern dass man das tatsächlich nur als Hilfestellung zur Vermeidung
00:53:01: von Tipparbeit, sag ich mal, nutzt und dann aber trotzdem die Sachen noch durchdenkt und dann im
00:53:08: Zweifel auch korrigiert. Also genau dieser schmale Grad glaube ich, also viele sehen das so,
00:53:15: wenn ChatGPT jetzt, ich sag mal wie Google, erweitert, wenn ChatGPT sagt, ich weiß nicht,
00:53:21: die Mona Lisa wurde in 2020 gemalt, dass man dann vielleicht dem Ganzen mehr vertraut,
00:53:27: weil es ja eine Maschine ist und die Maschine wird ja die Wahrheit oder die faktische Wahrheit
00:53:32: kennen. Und dass dann aber zum Beispiel durch Trolle gefüttert oder durch vielleicht schlechte
00:53:38: Algorithmen, durch schlechte Quellen oder ähnliches, dann die Antwort vielleicht offensichtlich auch
00:53:43: falsch ist, weil die ja schon deutlich älter ist, das Gemälde, dass man da diesen gesellschaftlichen
00:53:51: Netz, bin ich ja wieder in dem Turn, dass man dieses gesellschaftliche einfach hat,
00:53:55: dass man dann nicht eben blinder reingeht. Also eigentlich ist es ja im Grunde genommen so,
00:54:00: dass man diese AIs und diese verschiedenen Netze, die da aufgebaut werden,
00:54:03: so lange auch positiv halten kann und optimistisch oder auch korrekt halten kann.
00:54:09: Solange es immer noch mehr positiven und auch korrekten Einfluss hat als auch negativen,
00:54:14: dann lässt sich der negative Einfluss, glaube ich, ganz gut ausschließen.
00:54:18: Aber wir wissen auch alle, was für Bewegungen im Netz es gibt,
00:54:21: wenn man jetzt mal so Cancelling und Shitstorms und sowas mal hervorzieht,
00:54:25: wenn sich eine große Community, eine große Anzahl von Menschen auf den Weg macht
00:54:30: irgendwas zu zerstören und in dem Fall vielleicht auch ein neurales Netz total
00:54:33: in die Knie zu zwingen, weil es ganz ganz viel negativen und falschen und
00:54:37: inkorrekten oder unkorrekten Input gibt, dann ist diese Frage, ob es mehr
00:54:42: vernünftige als unvernünftige Menschen im Netz gibt, auch glaube ich hinfällig.
00:54:46: Also ich glaube, da müssen wir echt aufpassen oder da muss generell sehr
00:54:49: aufgepasst werden, in welche Richtung wir uns entwickeln.
00:54:52: Aber ich glaube, wie es Feefe seit Jahren macht in seinem Blog, ich weiß
00:54:58: ... ich weiß nicht, wie viele Hörer ...
00:54:59: ... Pfefe kennen, ...
00:55:01: ... aber er bloggt seit, ...
00:55:03: ... seit, ich glaube, ...
00:55:04: ... über 10 Jahren schon ...
00:55:05: ... und das fast täglich ...
00:55:06: ... und auch größere und kürzere Beiträge ...
00:55:08: ... und das auch ganz ohne ...
00:55:09: ... moderne Webtechnologien ...
00:55:10: ... und der nennt das immer ...
00:55:12: ... Medienkompetenztraining.
00:55:13: Das heißt, wenn er ...
00:55:14: ... wenn er falsche Posts macht ...
00:55:16: ... oder auch mal aus Spaß ...
00:55:16: ... sich irgendwie einen überzogenen Artikel ...
00:55:18: ... da reinpostet und sagt, ...
00:55:19: ... oh, lese mal hier, voll krass ...
00:55:20: ... und ihm das ...
00:55:22: ... vielleicht teilweise vorher ...
00:55:23: ... auch schon selber bewusst ist, ...
00:55:24: ... dass das ein Hoax ist ...
00:55:25: ... oder dass das überhaupt nicht stimmt, was da steht, ...
00:55:28: ... was nicht offensichtlich als Satire zu erkennen ist, ...
00:55:32: ... sondern dass es einfach auch, also einfach die Leute schult, ...
00:55:35: ... nicht alles zu glauben und dass man Fact-Checking macht ...
00:55:38: ... und das, was ich früher gerade schon mal erwähnt ...
00:55:40: ... in der Schule gelernt habe, ...
00:55:41: ... Wikipedia ist nicht die Quelle alles Guten, ...
00:55:43: ... sondern das muss hinterfragt werden, was es da gibt.
00:55:45: Wenn ich Sachen übernehme, dann muss ich Fact-Checking machen, ...
00:55:47: ... muss ich das überprüfen ...
00:55:48: ... und das wird ja jetzt nur auf die nächste Ebene gehoben, ...
00:55:51: ... dass man halt vielleicht faul wird, weil ...
00:55:53: diese AI-Sachen uns sehr viele Sachen abnimmt, aber dass das auf gar keinen Fall in Zukunft
00:56:00: dafür sorgen wird, dass wir inhaltlich korrekter sein werden. Ich glaube, wenn ich einen Blogartikel
00:56:05: oder einen Zeitungsartikel für irgendwas schreibe das nächste Mal, wüsste ich, glaube
00:56:09: ich, ganz gut, welche Inhalte ich reinpacken kann von der fachlichen Seite und ich würde
00:56:12: mir ganz, ganz gerne ganz, ganz viele Worte sparen, die ich selber tippen müsste, sondern
00:56:16: einfach einen schön leserlichen Text schreiben. Der wird vielleicht gar nicht so sehr mir
00:56:20: ähneln. Das ist ein Problem, was ich hätte. Aber ich würde mir ganz, ganz viel Zeit dadurch sparen,
00:56:25: dass ich mir um Schreibungen für Sachverhalte oder auch das Satzgefüge, Grammatik und
00:56:31: Wortwiederholungen und so was, wenn ich mir das alles sparen könnte, würde ich wahrscheinlich
00:56:35: viel, viel mehr schreiben. Und das ist etwas für die Zukunft, wo ich echt gespannt bin,
00:56:40: weil wenn plötzlich viel mehr Texte aus solchen Maschinen rauskommen, dann haben wir plötzlich
00:56:44: viel mehr Profi-Autoren auf der Welt, die viel mehr Sachen schreiben, wo man dann natürlich
00:56:49: hinterher auch eindeutig erkennen kann, dass es aus dem gleichen System stammt,
00:56:52: bin ich fest von überzeugt. Aber je mehr Artikel von so einem Chat-GPT veröffentlicht werden,
00:56:58: desto mehr konsumiert Chat-GPT das und desto mehr wird wahrscheinlich irgendwann dieser
00:57:01: Konsens kommen, dass alle Texte gleich sein werden von der Schreibweise her. Was aber bei
00:57:07: vielen Sachen wahrscheinlich gar nicht so schlimm wäre. Aber ich glaube, in diese Richtung kommen
00:57:11: wir und das ist auch eine Sache, die ich auch im Netz gelesen habe. Da baut bereits jemand schon
00:57:15: aus Hobby oder aus Spaß über die Feiertage hat er das, glaube ich, gemacht. Ein KI- oder ein ML-Konstrukt,
00:57:23: welches Texte analysiert, mit welcher Wahrscheinlichkeit die von ChetGPT stammen. Und
00:57:28: dann gehen wir jetzt schon wieder hin, dass wir große neuronale Netze machen und großes Artificial
00:57:33: Intelligence-Wissen verwenden, um wieder das gleiche, den gleichen Sachverhalt, das gleiche
00:57:39: Artificial Intelligence-Thema wieder aufzudecken oder wieder entgegenzuwirken. Ja. Wenn wir in Zukunft
00:57:44: gucken können, derjenige, der den Text geschrieben hat, hat er wirklich die
00:57:47: Lorbeeren verdient oder hat er nur drei Worte in so einen Generator
00:57:50: reingeschmissen? Und ist das nur ein Konglomerat von vielen bekannten Texten,
00:57:54: die mir da rausgespuckt werden? Ja, weil es ist halt kein Mensch, der
00:57:58: das schreibt, sondern nur eine Engine, die aus ganz vielen anderen Texten
00:58:01: gelernt hat. Also tatsächlich war das, also man kann sich das so vorstellen, wie
00:58:07: ich mich damit beschäftigt habe. Ich habe mich in mein Arbeitszimmerchen
00:58:09: eingesperrt, habe mich ein paar Stunden da oder quasi den ganzen Tag eigentlich
00:58:14: jeweils reingesetzt und recherchiert und ein bisschen ausprobiert und bin dann rausgekommen
00:58:20: und war dann erst mal ein bisschen mind blown, weil das, was du gerade erzählst,
00:58:24: das geht tatsächlich alles schon. Und das ohne ChatGPT, also es gibt schon Anbieter,
00:58:30: zum Beispiel CopyAI heißt einer, mit dem kannst du ganze Blogartikel schreiben. Also von dem kannst
00:58:36: du Blogartikel schreiben lassen, von dem kannst du dir Bücher schreiben lassen teilweise, also Kapitel.
00:58:41: Du kannst auch dort angeben, in welcher Mut du das quasi schreiben möchtest. Möchtest du das
00:58:47: professionell schreiben? Möchtest du das fröhlich schreiben oder traurig? Du kannst auch dort Twitter
00:58:54: Shower Thoughts, glaube ich heißen die, kannst du dort auch generieren lassen im Stile von Elon Musk.
00:58:59: Dann kannst du dir dort ganz viel, also zu bestimmten Stichpunkten, die gibst du dort immer
00:59:04: an, kannst du dir dort Texte generieren lassen und dann gibt es zum Beispiel einen Anbieter,
00:59:08: wie zum Beispiel, habe ich mir auch hier notiert, wie Quillbot. Dort gibst du dann diesen Text rein
00:59:13: und der wandelt dir dann diesen maschinell erzeugten Text in eine natürliche Sprache um,
00:59:19: sodass du kaum noch nachvollziehen kannst, ob das dann tatsächlich ein menschengeschriebener
00:59:23: oder maschinengeschriebener ist. Also es ist schon sehr, sehr viel möglich. Also schau dir mal dein
00:59:27: Rezept an, welches du da abgefragt hast. Man kann natürlich nicht herausfinden, ob ChatGPT jetzt
00:59:33: im Netz einfach eindeutig ein ganzes Rezept gefunden hat, was dem entspricht oder es dir
00:59:39: zusammengestellt hat. Das weiß man ja nicht, ob der vielleicht Hauptspeise oder Hauptkomponente
00:59:45: und Zeit irgendwie von deinem Essen und Dessert dann irgendwie zusammengewürfelt hat, einzeln
00:59:50: bearbeitet hat und das rausgezogen hat und den Text selber. Ich bin mir ziemlich bewusst,
00:59:53: dass man, oder ich bin mir sehr bewusst, dass man diese Texte schreiben lassen kann,
00:59:58: und dass das auch funktioniert, weil wir sehen das bei GitHub Copilot, dass man da mit Kommentaren
01:00:03: einschreibt und dann kommt Programmcode raus. Ich bin mir ziemlich sicher, dass man diese ganzen
01:00:07: Texte schon generieren kann. Aber haben wir ganz viele Texte von einem bestimmten Autor zum Beispiel
01:00:12: in diesem System drin und das hast du bei diesen Anbietern. Die haben garantiert nicht so große
01:00:16: Modelle wie offen verfügbare Netze zum Beispiel. OpenChat GPT ist jetzt auch nicht offen, aber die
01:00:21: haben durch diese ganze Popularität jetzt natürlich ein Riesenmodell gewonnen und durch diese Daumen
01:00:26: hoch und darum runter nehmen, dann haben die auch noch ein Rating für deren Modell, dass es auch
01:00:30: noch mal eine doppelte Bestätigung geben kann für das System, welche Antworten gut waren und
01:00:34: welche nicht. Direkte Anbieter, die sich das bezahlen lassen, die können auch groß sein,
01:00:41: die können auch gut sein, aber deren Modelle werden wahrscheinlich nicht so riesengroß sein.
01:00:43: Sondern wenn man sich jetzt mal Autoren oder die größten Autoren der letzten Dekade anguckt,
01:00:48: der letzten 100 Jahre von mir aus, dann wird man gewisse Formulierungen gegebenenfalls wieder
01:00:53: erkennen. Also ich glaube, ich bin jetzt nicht der Riesenleser und vor allem nicht Romane oder
01:00:58: nicht Thriller oder sowas, aber ich würde mal behaupten, dass Fans von gewissen Autoren auch
01:01:03: Formulierungen und Redewendungen von Autoren wiedererkennen würden. Also ich habe eine ganze
01:01:08: Reihe Bücher natürlich von Dan Brown gelesen, ich habe FITZEG ganz viele Thriller gelesen und
01:01:17: ich meine, bei FITZEG kann man ganz eindeutig erkennen, wer das geschrieben hat. Also ich finde,
01:01:22: wenn ich da mal ein Kapitel von dem gelesen habe oder sowas, da würde ich auf jeden Fall wieder
01:01:25: erkennen, dass das, zumindest aus einer näheren Auswahl von Autoren, dass er das ist, dass man
01:01:30: das wieder erkennen kann. Und wenn man so ein System füttert, so ein riesengroßes Modell,
01:01:34: dann können diese Sätze, die da gebildet werden, die müssen in einer gewissen Form vorgekommen sein
01:01:40: oder die werden vielleicht irgendjemandem bekannt vorkommen. Und so glaube ich, wenn man jetzt große
01:01:46: Lyriker oder so was fragen würde oder Philosophen oder weiß ich nicht was,
01:01:50: im Lesezirkel, wenn man die fragen würde, der Text, den du gerade liest, ähnelt der mir oder
01:01:59: habe ich den geschrieben? Und ich glaube, dass dann ganz viel verloren geht von dem,
01:02:04: was eigentlich der Mensch da reingeschaffen hat, diese Persönlichkeit. Bei Bildern sind
01:02:08: die typischen Pinselstriche und die bestimmten Farben und wie man das macht. All das,
01:02:11: diese Zufälligkeit und dieses Persönliche, was man da rein entwickelt hat, die eigene
01:02:15: Weiterentwicklung. Das würde bei so einem generierten Modell, glaube ich, einfach noch
01:02:19: nicht funktionieren. Und deswegen, bevor ich mir wahrscheinlich einen Blogpost oder ein Zeitungsartikel
01:02:24: schreiben lassen würde von so einer Engine, also komplett schreiben würde von Anfang bis Ende,
01:02:28: ich glaube, davor würde ich zurückschrecken und würde sagen, ich mache das gar nicht, weil das
01:02:32: dann einfach auch nicht den Sinn erfüllt. Und dann kommen wir einfach zu diesem vielleicht
01:02:35: zusammenfassenden Punkt. Ich glaube nicht oder ich habe ein bisschen Angst davor oder die Befürchtung,
01:02:42: dass wir zwar mehr qualitativ hochwertigere Texte haben, weil diejenigen, die vielleicht
01:02:47: nicht die Fähigkeit besitzen zu schreiben, zu malen, zu singen, zu musizieren im Generellen
01:02:52: oder zu programmieren, dass all die Menschen befähigt werden, ihr Niveau oder ihr Level
01:02:57: anzuheben und dass vielleicht nicht im gleichen Tempo diejenigen, die es schon können, noch
01:03:01: besser werden, sondern eher, dass einfach dieses Zwischengut und Schlecht vielleicht einfach ein
01:03:06: bisschen verschoben wird, weil derjenige, der es nicht kann, sich so ein Mindestmaß an Qualität
01:03:10: dadurch holt. Dann wird es vielleicht einfach dadurch, dass man nicht mehr eindeutig identifizieren
01:03:16: kann, was ist gut und was ist schlecht, generell schon zu einer Verbesserung von allem führen,
01:03:20: aber noch nicht dazu, dass wir alle super tollen Content über jedes Thema überall finden werden.
01:03:27: Und wir finden, wir sagen "ChatGPT, erklär mir bitte die Relativitätstheorie, aber bitte nur
01:03:35: in Szenen setzen und für mich verständlich. Ich glaube, für solche Dinge, das könnte irgendwann
01:03:41: mal was werden, das könnte sich super viel bedienen, da könnte ich für mich sehr viel
01:03:44: rausholen. Aber sobald es darum geht, wirklich das, was wir als Kunst, ob es jetzt in Textform
01:03:50: oder gemalter Form ist oder so, bis das ersetzt werden kann und bis all diese Sachen, die dahinter
01:03:55: stecken, nachvollzogen werden durch so eine AI, ich glaube, da wird noch viel Zeit ins Land gehen.
01:03:59: Damit endet der erste Teil unserer Folge über AI und Co.
01:04:05: Wir hören uns in zwei Wochen wieder.
01:04:06: Bis dahin!
01:04:07: [Musik]
01:04:19: [Ende]
Neuer Kommentar