Devs on Tape - AI (Teil 2)
Shownotes
Wir sprechen, auch in der zweiten Folgen Devs On Tape in diesem Jahr, über verschiedene AI-Technologien und unsere Anwendungen für diese. Wie immer sind, das darf natürlich nicht fehlen, viel eigene Meinung und Einschätzungen enthalten. ;-)
Heute beginnen wir mit dem Thema "autonomes Fahren". Nach welchen Gesichtspunkten muss eine AI im Ernstfall entscheiden und wer entscheidet das wiederum? Wir sprechen auch das Projekt "comma.ai" von George Hotz an und vergleichen es zu abgeschlossenen Systemen, wie dem Tesla.
Neben den Autos und dem autonomen Fahren, handelt diese Folge auch von der AI unterstützten bei unser aller Jobs.
sagsWeiter!
Devs On Tape auf Twitter: @devsontape Kai Donato - kai.donato@mt-ag.com - Twitter: @_KaiDonato Carolin Krützmann - carolin.hagemann@doag.org - Twitter: @CaroHagi
Dieser Podcast genießt die freundliche Unterstützung der Deutschen Oracle Anwender Gruppe (DOAG e.V - https://doag.org)
Transkript anzeigen
00:00:00: [Musik]
00:00:16: Hallo und herzlich willkommen zu einer neuen Ausgabe von Devs on Tape.
00:00:19: Heute als Fortsetzung von der Folge von vor zwei Wochen zum Thema AI.
00:00:24: Ich wünsche euch viel Spaß damit und bis übernächste Woche.
00:00:29: Wir haben auch noch ein ganzes Thema, welches ich jetzt mal gerne anschneiden würde.
00:00:32: Und zwar ist das mal auch ein ganz großes Feld von dieser Artificial Intelligence, ...
00:00:38: ... ist auch schon eine ganze Zeit lang unterwegs.
00:00:40: Und zwar ist das das automatisierte Fahren oder das autonome Fahren.
00:00:43: Hast du dich mit dem Thema schon auseinandergesetzt?
00:00:45: Du hast ja einen Führerschein, Caro.
00:00:47: Ja, genau.
00:00:48: Wenn du in Hamburg wohnst und wahrscheinlich nicht mit deinem Auto selber unterwegs sein willst, ...
00:00:51: ... hast du einen Führerschein.
00:00:53: Hast du dich mit dem Thema auseinandergesetzt?
00:00:54: Nur soweit, um zu dem Schluss zu kommen, dass für mich autonomes Fahren nur funktioniert,
00:01:01: wenn alle autonom fahren.
00:01:02: Ja, das ist auch ein Schluss.
00:01:05: Ja, das macht Sinn.
00:01:06: Ja, also ich fand zum Beispiel die Folge mit Karin total interessant, wo wir da über diese
00:01:12: Modelle gesprochen haben und was autonome Fahrzeuge dann, wie sie quasi ihre Umgebung
00:01:18: wie sie ihre Umgebung abtasten und das Ganze dann verarbeiten und so. Das war für mich noch mal ein
00:01:30: anderer Aspekt, als man sonst vielleicht auch selber als Entwickler darüber nachdenkt, wenn man
00:01:36: sich darüber Gedanken macht. Aber bis auf so ein Beispiel erklärt anhand eines solchen Modells,
00:01:45: wie denn Machine Learning so funktionieren könnte, habe ich mich tatsächlich noch nicht beschäftigt.
00:01:50: Ich habe auch keinen Tesla oder so was oder ein E-Fahrzeug, welches autonom fahren kann.
00:01:54: Ja, also ich würde jetzt auch nicht behaupten, dass ich mich da großartig mit auseinandergesetzt
00:01:58: habe, aber ich habe so ein paar interessante Punkte dazu, die wir gerne mal hier besprechen
00:02:03: können, auch wenn ich die dann überwiegend vielleicht eher Fragen stelle, was du dafür
00:02:07: hältst. Aber im Grunde genommen gibt es diese eine Frage, die ich auch nie beantworten konnte
00:02:11: und weshalb das autonome Fahren auch in Deutschland, glaube ich, noch nicht erlaubt wird. Es gab immer
00:02:14: diese Frage vor diesen ganzen AI-Themen, die jetzt ganz groß in den Medien sind,
00:02:18: gab es immer diese Frage, kann eine Maschine tatsächlich die Entscheidung
00:02:22: treffen, wie würde eine Maschine sich entscheiden, wenn es die Wahl hätte, ein
00:02:28: Kind zu überfahren oder einen alten Menschen? Und wie würde diese
00:02:31: Entscheidung getroffen werden? Und solange die nicht getroffen werden kann,
00:02:33: können wir einem Auto auch diese Entscheidung nicht überlassen.
00:02:36: Nach welchen Gesichtspunkten wird sowas gemacht? Und würde man jetzt
00:02:40: hingehen und ChatGPT fragen, wie man umfahren soll oder wie die richtige
00:02:44: Lösung ist oder fahre ich gegen die Wand, um mich selber nur davon zu treffen und nicht die
00:02:48: unschuldigen Passanten oder wer ist jetzt mehr wert, Lebenserwartung und so weiter. Natürlich
00:02:53: mit mehr Rechenpower, mit mehr Meinungen, die Menschen in dieses System reingefüttert hat,
00:02:57: wird vielleicht ein Auto irgendwann anhand dieser Berechnungen eine Entscheidung treffen,
00:03:03: die wahrscheinlich einem Gro der Gesellschaft entsprechen wird. Das ist jetzt so ein Gedanke,
00:03:07: der vielleicht da noch nicht gefunden wurde, aber wie sieht es mit der Gerichtbarkeit dann
00:03:11: ... dann auch aus.
00:03:12: Also die Maschine, ich glaube schon, dass so eine KI ...
00:03:16: ... dann in der Lage wäre, so zu entscheiden, wie es ...
00:03:18: ... ein Großteil der Menschen wäre.
00:03:20: Aber haben wir dann Mehrheits, haben wir dann Demokratie ...
00:03:22: ... beim Töten von Menschen durch Autos?
00:03:24: Also wie würde ein Großteil der Menschheit ...
00:03:26: ... darauf reagieren oder in dieser Situation ...
00:03:28: ... entscheiden und so wird dann dieses System ...
00:03:30: ... dafür entscheiden.
00:03:31: Aber das ist das Thema, was das autonome Fahren, ...
00:03:34: ... ich wollte gar nicht so tief in das Thema ...
00:03:36: ... mit dieser Entscheidung oder mit diesem ethischen ...
00:03:38: ... Aspekt da reingehen, aber das ist das Thema, ...
00:03:40: Aber das ist das, warum Autos auch bisher noch nicht autonom fahren, weil es gewisse
00:03:44: Entscheidungen, gewisse Situationen gibt, in denen dann einfach keiner mehr verantwortlich
00:03:47: auch dafür ist, was dann da passiert.
00:03:49: Und wenn sowas Banales ist wie Versicherungen, die das nicht übernehmen, was ein Auto für
00:03:53: Straftaten oder für Unfälle begeht, die eigentlich nicht der Fahrer hat.
00:03:57: Weil die Firmen werden es von sich weisen, natürlich der Fahrer wird es auch von sich
00:04:00: weisen, weil er konnte zwar reagieren, aber nicht schnell genug oder so.
00:04:03: Ich glaube, dafür ist Deutschland auch einfach noch zu korrekt, als dass sowas gemacht werden
00:04:08: kann, einfach so verabschiedet werden kann.
00:04:10: Aber wenn wir einfach mal über den Teich rübergucken, ...
00:04:12: ... nach Amerika, wo die Teslas halt auch mit Betas rumfahren ...
00:04:16: ... von komplett selbstgesteuerten Autos, die wirklich ...
00:04:19: ... völlig ohne Fahrrad zurechtkommen, ...
00:04:21: ... da sehen wir so ein Modell, ...
00:04:23: ... was mit Sicherheit der Zukunft entspricht ...
00:04:26: ... und was komischerweise auch von dem gleichen Typen stammt, ...
00:04:28: ... der auch OpenAI, glaube ich, gegründet hat.
00:04:30: Da steckt ja, glaube ich, überall Elon Musk hinter.
00:04:33: Dass wir da bei der Falschinformation bitte rausschneiden.
00:04:40: Da stecken auf jeden Fall Leute hinter, die in der Zukunft noch viel mehr erforschen wollen ...
00:04:44: ... und das einfach Geld und Risiko in die Hand nehmen, um so was in der breiten Masse zu machen.
00:04:47: Und dann sehen wir bei diesem autonomen Fahren, dass die Teslas ganz viel die Umgebung selber noch scannen, ...
00:04:54: ... sich untereinander austauschen, dann übers Netz mit den Erfahrungen, die sie gemacht haben, ...
00:04:57: ... immer detailliertere Karten bauen können, immer detailliertere Modelle, ...
00:05:00: ... immer mehr Entscheidungsbäume aufbauen können, ...
00:05:02: ... wo wir wieder bei dieser AI-Thematik mit den neuronalen Netzen sind, ...
00:05:06: ... immer mehr diese Modelle aufbauen können, wie reagiere ich in dieser Situation, ...
00:05:10: was muss ich da machen? Da fehlt eine Fahrbahnmarkierung, aber ich wüsste, dass die eigentlich da lang
00:05:13: weitergeführt werden muss, weil ich genügend Informationen darüber habe, wie diese Straßenführung
00:05:17: in Amerika ist zum Beispiel. Oder diese Ampel, die springt in dem Takt und in dem Zeitraum um und
00:05:22: die ist hier, dann kann ich das bei mir natürlich auch darstellen. Solche ganzen Sachen, das erforschen
00:05:27: die gerade und da arbeiten die gerade dran und die haben tatsächlich ganz viele Autos auf der
00:05:30: Straße in Amerika, ganz viele Teslas, die diese Betas testen und die sich alleine fahren. Da sitzt
00:05:35: der Fahrer daneben, der kann eingreifen, aber so steigt und wächst dieses Modell und das ist, glaube
00:05:39: ich eine Sache, die genauso wie alle anderen AI-Themen in Zukunft so stark wachsen werden,
00:05:44: dass das nur noch eine Frage der Zeit ist, bis die Dinger so gut sind, dass wir wirklich
00:05:47: komplett autonom unterwegs sein können. Auch da ist einfach ein großes Feld, das hat nichts mehr
00:05:52: mit Sprache und Wissen zu tun, sondern tatsächlich einfach nur mit Nachahmung, mit Lernen von
00:05:59: Reaktionen und von Aktionen, die da passieren, dass man da einen Menschen ersetzen kann. Und in
00:06:04: dem Fall nicht als arbeitende Kraft, wie es in einer Maschine in einer Fabrik wäre, sondern
00:06:09: einfach nur den Fahrer eines Autos, der eigentlich in diesem Fahrprozess für uns als naive Autofahrer,
00:06:18: sage ich jetzt mal, also ohne da großartig Gedanken rein zu verschwenden, dass man da
00:06:23: ganz gut ersetzt werden kann. Weil es gibt die Verkehrsregeln, es gibt das, was wir sehen,
00:06:26: es gibt darauf müssen wir reagieren, da gibt es bestimmte Entscheidungen, die wir treffen,
00:06:30: und warum sollte die nicht eine Maschine für uns übernehmen können. Und wenn die Maschine
00:06:34: ... immer schlauer und immer klüger wird ...
00:06:35: ... und auch immer mehr Vertrauen von Menschen gewinnt, ...
00:06:37: ... dann kann ich mir ...
00:06:39: ... nicht vorstellen, dass das noch lange ein Thema sein wird.
00:06:42: Und dann ...
00:06:44: ... habe ich natürlich nicht nur über Tesla ...
00:06:46: ... nachgelesen oder das auch rausgekriegt, ...
00:06:48: ... sondern ich habe auch vor kurzem ein ...
00:06:50: ... ganz, ganz interessantes ...
00:06:51: ... Interview-Podcast ...
00:06:52: ... oder einen ganz interessanten Interview-Podcast ...
00:06:55: ... mit Georg Hotz oder George Hotz ...
00:06:57: ... gehört.
00:06:58: Und zwar ist er ...
00:06:59: ... also zum Background, der ist ...
00:07:01: ... einer der ersten Hacker des iPhones gewesen ...
00:07:03: unter Playstation 3 und ist immer wieder aufgefallen durch wahnsinnig krasse
00:07:07: Hacking-Aktionen, ist ganz viel in den Medien gewesen. Jetzt kürzlich ist er in den Medien
00:07:12: gewesen, weil er, glaube ich, in zwei Wochen ein kostenloses Praktikum, also
00:07:16: unbezahltes Praktikum bei Twitter gemacht hat, weil er gesagt hat, die Search Engine
00:07:20: ist für den Allerwertesten. Und dann hat er mit dem Maskin eingestellt, als Praktikanten doch in
00:07:25: zwei Wochen den Code für diese Such-Engine von Twitter neu zu schreiben.
00:07:29: Der ist immer so in die Medien gekommen und 2015 hat er tatsächlich, da haben wir wieder
00:07:34: das nächste tatsächlich, eine Firma gegründet, die sich damit auseinandersetzt, wie man die
00:07:39: Autos auch auf der Straße autonom fahren lassen kann, ohne dass man jetzt so ein Auto,
00:07:44: was glaube ich zu dem Zeitpunkt noch nicht auf dem Markt war oder noch nicht veröffentlicht
00:07:48: wurde, mit dem Tesla, das alles zu haben, ohne ein dediziertes Auto dafür zu haben.
00:07:53: Also Tesla ist ein abgeschlossenes System, das ist ein Auto, das ist eine Software drin
00:07:57: und wenn du ein autonomes Auto haben möchtest, hast du eine ganze Zeit lang nur einen Tesla
00:08:01: bekommen. Und da hat der Georg Hotzig die Aufgabe gemacht, mit seiner Firma Comma AI eine Software
00:08:09: zu schreiben und auch teilweise Hardware hat er dafür natürlich auch bereitgestellt,
00:08:12: um mit künstlicher Intelligenz normale Autos zu selbstfahrenden Autos zu machen. Das heißt,
00:08:18: der hat an den Steuerbus vom Auto eine Box drangehangen, die dann halt diese Steuersignale
00:08:25: absendet. Wir wissen ja auch alle mit so einparkassistenten und sowas, dass sich
00:08:28: auch so ein Lenkrad natürlich mechanisch ohne den Einfluss von einem Mann oder von
00:08:32: einer Frau hinterm Steuer drehen lässt. Und so hat er halt auch so Tempomaten
00:08:37: angebunden, dass er dann natürlich Gas geben konnte und bremsen konnte und
00:08:40: solche ganzen Geschichten. Blinker sind ja auch schon lange keine Biometallstreifen
00:08:43: mehr. Der hat diese ganzen Signale halt mit dieser Box gesteuert und war
00:08:47: in der Lage mit seiner Software ganz viele Honda, ich glaube, er hat angefangen
00:08:52: mit Honda-Fahrzeugen, ganz viele Honda-Modelle autonom fahrbar zu machen. Also der ist hingegangen
00:08:58: und hat diese Boxen dann dafür drangehangen und hat dann diese normal fahrenden Autos dazu befähigt,
00:09:05: selber abbiegen zu können und Straßensituationen bewerten und auch eingreifen zu lassen. Und er
00:09:13: hat dann 2016 ein System rausgebracht, das quasi echt auch nur auf Smartphone-Technologie basierend
00:09:21: gearbeitet hat. Das heißt, das war echt ein ungebautes Handy, was diese Steuersignale
00:09:25: dann verarbeiten konnte und aussenden konnte. Und hat das zunächst, wie ich gesagt habe,
00:09:29: für verschiedene Honda-Modelle gemacht und hat dann aber leider auch einen großen Dämpfer
00:09:34: bekommen, weil auch da war Amerika noch nicht so weit, sowas zu erlauben. Da muss wahrscheinlich
00:09:37: erst ein Elon Musk um die Ecke kommen mit Tesla, damit solche Sachen dann gelockert werden. Der
00:09:41: durfte sein AI-gesteuertes Selbstfahrsystem nicht auf den Markt bringen oder nicht weiterverkaufen,
00:09:48: weil da die sogenannte National Highway Traffic Safety Administration das verboten hat,
00:09:53: weil die sind einfach auch noch nicht so weit gewesen, dass sie das irgendwie hätten gestatten können,
00:09:57: dass da irgendeine Software irgendein Auto steuert.
00:09:59: Das würde ich jetzt mal fast so sagen, den Stand auch, den wir jetzt in Deutschland gerade haben,
00:10:03: weil da ganz viele Fragen nicht geklärt sind.
00:10:05: Und das hat er dann auch später im Jahr, quasi, ich glaube sogar fast einen Monat später nur,
00:10:12: zum Anlass genommen das Ganze unter dem Namen OpenPilot,
00:10:16: nicht mehr ",1" oder ",2" oder sowas zu veröffentlichen, sondern er ist dann hingegangen und hat seine Software unter dem Namen OpenPilot auf Open-Source-Basis veröffentlicht,
00:10:27: damit da so viele Menschen wie möglich irgendwie von profitieren können und das für sich einbinden können.
00:10:33: Da hat er dann im Anschluss aber auch, ich habe übrigens Medienkompetenz mäßig jetzt hier auch auf Wikipedia zurückgegriffen,
00:10:40: weil ich das in komprimierter Form alles wiedergeben möchte. Also bitte nicht jetzt hier
00:10:45: Compliance anrufen und sagen, dass ich da abgekupfert habe oder mich eines anderen
00:10:49: Werkes bedient habe. Das kommt alles von der Wikipedia-Seite von Jakoma AI bzw. von Geocodes.
00:10:55: Ja, die haben nochmal einen zweiten Aufschlag versucht und zwar das erste Produkt dieses Jahr,
00:11:00: "Koma One". Und jetzt haben sie, nachdem sie es auch nochmal als Open Pilot veröffentlicht haben,
00:11:05: ein Produkt auf den Markt geschmissen. Das war im Januar 2020, also vor gut drei Jahren,
00:11:10: das für knapp 1000 Dollar in der Lage ist, dein Auto trotzdem nach wie vor so zu steuern. Und
00:11:16: zwar haben die sich dann auch wieder so ein bisschen, naja, in einer gewissen, ja, wie soll
00:11:21: man sagen, nicht Grauzone, aber in einer gewissen Richtung orientiert, dass sie gesagt haben,
00:11:25: naja, du kannst das Produkt kaufen, kostet 1000 Euro, ist eine Dashcam, ist eine sehr teure Dashcam
00:11:30: dann. Die packst du dir vorne in dein Auto. Aber du kannst natürlich ganz einfach Open Pilot kaufen
00:11:35: oder beziehungsweise runterladen, kosten muss, und kannst es sehr einfach auf das Device von
00:11:40: uns drauf spielen, welches ja super geeignet dafür ist, aus komischer Art und Weise. Ja,
00:11:45: und dann hat es tatsächlich ab 2016 für ganz, ganz viele US-Markt-Pkws oder Pkws aus dem US-Markt
00:11:54: Selbststeuerfähigkeiten zur breiten Masse gebracht. Ich finde das immer wieder beeindruckend,
00:11:59: wie gerade so ein Typ, der mit Playstation 3 Hacking und mit iPhone Hacking immer wieder
00:12:03: so eine Grenze gesucht hat, die er überstreiten kann zur Legalität. Ich weiß nicht, wie das jetzt
00:12:08: bewertet wird, was die da 2020 gemacht haben. Jetzt, wo es natürlich auch noch viele andere
00:12:13: Autohersteller gibt, die ähnliche Sachen machen, wo dann auch Spurwechsel automatisiert funktioniert
00:12:17: plötzlich und die das dürfen. Jetzt sind sie dann, glaube ich, noch ein bisschen näher auf
00:12:22: dem legalen Weg, dass sie so etwas anbieten können, was dann der breiten Masse zur Verfügung
00:12:29: gestellt werden können mit diesem kleinen Software-Hack, der nicht ganz
00:12:33: offen legal ist, sondern eher so Hinweise gibt. Ihr habt die Hardware, da ist ein
00:12:36: Dashcam-Software drauf, ihr könnt damit Videos aufnehmen für 1000 Euro, aber
00:12:40: zufälligerweise OpenPilot könnt ihr drauf packen, könnt ihr dann alles
00:12:44: verwenden. Das finde ich ganz interessant und in diesem Interview, wo das
00:12:49: als Infos auch übermittelt worden ist, hat er auch ein paar Aussagen dazu
00:12:52: getroffen, die uns jetzt vielleicht zu dem Thema mit den Server-Farm und mit der
00:12:55: mit der Rechenleistung und so weiter zusammenhängen, wie der da zurückführt. Und zwar hat er darüber
00:13:00: erzählt, wie die Comma AI oder diese Open Pilot trainieren. Und zwar trainieren die nicht aus
00:13:09: Real-Life-Daten, wie es zum Beispiel Tesla tut oder unter anderem Tesla tut, ich weiß natürlich
00:13:14: nicht, was die alles machen, aber wie es auch ChatGPT tut, die gehen auch auf öffentliche,
00:13:20: auf Real-Daten, auf Real-Menschen, auf echte Anfragen von echten Menschen zu und speichern
00:13:25: das analysieren lassen, verwenden das wieder, sondern die gehen hin und suchen Verkehrssituationen
00:13:30: raus, generieren die, simulieren die und haben dann ganz, ganz viele parallele VMs, so habe
00:13:34: ich mir das jetzt mal vorgestellt, auf Serverfarm laufen und lassen ihre eigene Software auf
00:13:38: Simulationen laufen und da lernen.
00:13:40: So, und das ist quasi das Gleiche wie, ich habe Entscheidungsbäume in diesen neuralen
00:13:46: Netzen und entscheide selber als Mensch dann, wenn ich was sehe und sehe das Ergebnis dann
00:13:51: unten dran, dass ich dann immer positiv drücke oder negativ und anhand dieser Antworten und
00:13:54: der Vorauswahl und dieser ganzen verschiedenen Faktoren kann das System dann den besten Weg
00:13:59: ermitteln und kann für die Zukunft so die sogenannte Learning machen. So, und das machen
00:14:04: jetzt andere Autos und andere Software mit realen Daten und die machen es halt aber einfach in
00:14:11: Simulation. Das heißt, die können tatsächlich fünf bis zehn Millionen Autos von mir aus
00:14:16: gleichzeitig in die gleiche Verkehrssituation führen und können die Software anhand dieser
00:14:21: Ergebnisse und vielleicht kleine Änderungen von Parametern, die aktiv beigesteuert werden,
00:14:26: daran lernen lassen. Dann fährt ein Auto auf eine Kreuzung zu, das erste Auto hat grün, fährt um die
00:14:30: Ecke, das nächste Auto hat orange, fährt um die Ecke und das nächste Auto hat rot und fährt um die
00:14:35: Ecke. Die wissen genau, welche Parameter verändert wurden und wissen genau, wie die Maschine darauf
00:14:39: reagieren soll in der Situation. Und das ist unterschiedliche Ansatzformen des Ganzen,
00:14:46: unterschiedliche Herangehensweise und ich bin echt gespannt, wie sich das im Vergleich zu dem,
00:14:50: was Tesla zum Beispiel macht, in Zukunft weiterentwickeln wird. Also was da ein Zug gewährt,
00:14:55: weil Tesla, und das ist nochmal so eine weitere Information, die ich natürlich dazu recherchiert
00:15:00: habe, Tesla nicht wert war, die Firma von Girlcods zu kaufen, als es da ein Angebot gab von seiner
00:15:07: Seite. Die machen das halt einfach generell alles anders. Ich bin gespannt, welche Art und Weise da
00:15:13: die Zukunft sein wird. Ja, das finde ich auch sehr spannend. Also ich habe zum Beispiel auch gehört,
00:15:20: dass Tesla mit jedem Fahrzeug, das es verkauft, auch wenn es nicht autonom fährt, dass sie trotzdem
00:15:30: mit jedem Auto Karten und Situationen und einfach Daten, ganz, ganz viele Daten sammeln. Und dadurch
00:15:38: Tesla natürlich, ich weiß nicht, wie der Stand jetzt ist, weil ich da nicht so in dem Game drin
00:15:43: bin, aber Tesla war wohl eine ganze Zeit lang deswegen so datentechnisch einfach ganz, ganz
00:15:48: weit vorne, was diese ganze autonome Fahren-Geschichte angeht, weil sie sich in der Art einfach schon
00:15:55: mal sehr viel Zeug, sag ich mal, gesichert haben, was sie dann analysieren können.
00:16:00: Ich glaube auch, dass es gar keinen Zeitpunkt in der Menschheitsgeschichte gab, wo mehr Autos mit
00:16:07: Lidar-Scannern oder Radarscannern und Kameras und so weiter durch die Gegend fahren. Also mein Golf
00:16:13: zum Beispiel hat auch einen Radar vorne, wo auch die vorausfahrenden Autos mit erkannt und gescannt
00:16:19: werden. Aber das, was da in Teslas drin ist, und wir haben jetzt wirklich jede Menge Teslas
00:16:23: weltweit rumfahren, was die für Sensoren drin haben, die die Umgebung allein nur beobachten
00:16:27: und messen und aufnehmen. Ich glaube, da lassen sich wirklich sehr, sehr detaillierte Karten und
00:16:32: auch Situationen mit erfassen und aufnehmen. Und auch das kann ja gut genutzt werden mit Sicherheit.
00:16:39: Und ich glaube auch, dass wenn das System weitergeht und auch die Rechenpower, da bin ich
00:16:42: wieder bei dem Thema, die Rechenpower stärker wird, die ganzen erfassten Daten viel effizienter und
00:16:47: effektiver ausgewertet werden können, dass wir damit Sicherheit viele Sachen zu erwarten haben.
00:16:51: Vor allem, wenn dann noch mehr Firmen, mehr Unternehmen, mehr Autohersteller den gleichen
00:16:55: Zug mit aufspringen und dieser Switch gemacht wird, dass alle darauf gehen und vielleicht sich
00:16:59: sogar auch mal zusammenschließen, wie es bei anderen Karten zum Beispiel ist, wo sich bei
00:17:04: hier Karten zum Beispiel viele Autohersteller zusammen oder Car-Entertainment-Systemhersteller,
00:17:09: Navigationssystemhersteller, wie die sich zusammentun, um gemeinsame Karten zu entwickeln,
00:17:14: damit man wirklich eine gute Datenbasis hat. Und wenn das vielleicht auch mal irgendwann mit AI
00:17:19: oder KI und was auch immer für Systemen auch mal der Fall sein wird, können wir das mit Sicherheit
00:17:25: zu einer Bereicherung unserer Gesellschaft führen. Da bin ich ziemlich überzeugt davon,
00:17:32: dass das klappen kann. Aber das Auto-Thema soll jetzt natürlich auch nicht alle langweilen.
00:17:37: Vielleicht gehen wir noch mal zu dem Thema zurück, was wir im Bereich Development haben. Wenn wir
00:17:43: jetzt noch mal über GitHub Co-Pilot sprechen, da gibt es, glaube ich, auch noch ein paar neuere
00:17:47: Infos. Ich habe da jetzt noch mal einen kurzen Artikel darüber gelesen, was da die Unterschiede
00:17:52: sind. Wir haben es letztes Mal so ein bisschen als Behauptung in dem Raum stehen lassen zu dem Thema,
00:17:56: ja, vielleicht noch mal als kurzen Recap, du hast es gerade schon mal gesagt, aber GitHub Copilot ist
00:18:01: die Form von, ich sage jetzt wirklich so ganz platt, Chat-GPT. Man gibt irgendwas ins System rein und
00:18:08: bekommt dann eine ausgearbeitete, interpretierte Form von dem wieder raus. Also wir sind hier nicht
00:18:12: auf dem visuellen Weg, wo wir Bilder generieren oder Bilder erzeugen lassen. Wir sind hier auch
00:18:16: nicht auf der Chat-Ebene, wo wir irgendwie ein Gespräch mit jemandem führen an und für sich.
00:18:23: Wir sind hier aber auch nicht auf irgendeinem Audio-Track, wo irgendwelche Musik erzeugt wird,
00:18:27: was es auch mittlerweile gibt, sondern wir sind hier auf dem Weg, dass Programmcode erzeugt wird,
00:18:31: nicht mehr und nicht weniger. Und das auch wieder von einem Hersteller, der unter dem
00:18:36: Dach von Microsoft arbeitet. Und da haben wir uns beim letzten Gespräch mit Philipp schon mal
00:18:42: darüber unterhalten, wie wohl die Datenbasis dazu aussieht.
00:18:45: Woher kriegen die diese ganzen Informationen? Woher weiß das System, wie
00:18:49: eine ganz besondere Passage in Code funktioniert? Wenn ich sage, wie du es
00:18:55: gerade erwähnt hast, zeige mir mal eine API für irgendwas, woher nimmt das System
00:18:59: das Wissen? In welcher Sprache, welchen Code, welchen Zweck, welche Analyse
00:19:03: dahinter? Was ist jetzt wirklich das Beste? Was schlage ich demjenigen davor? Wo
00:19:06: kommt das ganze Wissen her? Und da haben wir ja schon die Vermutung
00:19:10: aufgestellt, dass das aus dem Code, der auf GitHub liegt, kommt das Ganze. Und auch da
00:19:17: haben wir natürlich jetzt nicht innerhalb des Codes wie auf einem
00:19:21: Kunstwerk obendrauf fest so eine Unterschrift, die wieder auftauchen kann.
00:19:25: So Copyrights lassen sich, glaube ich, aus Programmcode relativ einfach
00:19:29: rausretuschieren oder einfach, naja, Kommentare einfach weggelassen.
00:19:33: Dann hat man das schon nicht mehr drin. Und dann habe ich jetzt den
00:19:38: Artikel gelesen, wo GitHub selber eingestanden hat oder gesagt hat, naja, also implizit eingestanden
00:19:44: hat, dass es aus all diesen Open Repositories, die verfügbar gestellt werden, also Public
00:19:49: Repositories auf GitHub, werden alle mit einbezogen da rein. Ich glaube, da findet natürlich eine Art
00:19:53: von Bewertung statt, aber die haben eine riesen Datenbasis. Damit haben die das Modell wieder
00:20:00: diese Bäume aufgebaut und haben dann festgestellt, was der beste Weg wohl wäre, weil es die Mehrheit
00:20:04: der Menschen gemacht haben aus Grund XY. Und die haben selber dann implizit das eingestanden,
00:20:10: dass es so ist, indem sie gesagt haben, naja, die Professional-Version für Unternehmen,
00:20:14: also entweder Professional oder Enterprise, glaube ich, heißt das, die sorgen dafür,
00:20:19: dass das, was du eingibst in dem GitHub Copilot, nicht mit reinfließt in die Engine, dass der
00:20:26: Code, auf den zugegriffen wird, vielleicht auch nur unternehmensintern stattfindet,
00:20:29: dass es nicht irgendwie Wald- und Wiesencode von irgendwo anders hinzugezogen wird dafür,
00:20:35: weil da könnte es ja tatsächlich zu Copyright-Problemen kommen. Wenn jetzt ein Unternehmen
00:20:41: hergeht und für ein richtig teures Produkt diese Technologie verwendet und dann hat man
00:20:46: ein Open-Source-Projekt, was unter der Lizenz läuft, dass es nicht für kommerzielle Zecke
00:20:50: verwendet werden kann, dann müsste GitHub-Copilot ja entweder so geaudited sein oder so schlau sein,
00:20:55: zu erkennen, welcher Code, welche Codepassage jetzt wieder erkennbar ist. Das wäre jetzt
00:21:02: ein Negativfall. Oder einfach vorher die Lizenz heraus erkennen aus dem Dokument, wo es dann drin
00:21:07: ist. Gesetzt im Falle, dass es in jedem Code-File oben im Header drinsteht, wer den geschrieben hat
00:21:14: und welche Lizenz das hat. Wir wissen alle, dass das nicht immer der Fall ist. Aber da müsste die
00:21:18: Engine dann schon hingehen können und wirklich eindeutig erkennen können, unter welcher Lizenz
00:21:22: ... diese Codezeilen hier stehen und dann bitte ...
00:21:24: ... nicht eins zu eins das irgendwo vorschlagen.
00:21:26: Haben wir irgendeine komplexe Operation in einem Code ...
00:21:31: ... und das ist vielleicht nur eine von zehn Vorkommnissen ...
00:21:33: ... und jetzt fragt jemand genau danach und die Engine ...
00:21:35: ... geht hin und sagt, naja, ich habe zehn Beispiele ...
00:21:37: ... gefunden, die ähneln sich alle sehr stark, ich habe ...
00:21:39: ... jetzt nochmal mein Wissen darauf angewendet, dann ...
00:21:41: ... wirst du, gehe ich mal schwer von aus, eine von ...
00:21:44: ... diesen Lösungen vorgeschlagen kriegen oder eine ...
00:21:46: ... Kombination daraus vorgeschlagen kriegen, die ...
00:21:48: ... vielleicht auch wiedererkennbar ist. Ist jetzt ...
00:21:49: nur von mir so eine Idee, wie das passieren kann. Es kann natürlich auch im Hintergrund sein,
00:21:55: dass sie sagen, wenn wir da nicht mindestens eine Million Beispiele haben, können wir das
00:21:59: nicht anbieten, weil das nicht ein Learning ist sozusagen. Deswegen verstehe ich auch nicht
00:22:06: wirklich, wie das mit GitHub Copilot funktionieren kann in der Enterprise-Variante, dass sie nur
00:22:09: vorhandene Codebase verwenden können, um dir gleiche Sachen vorzuschlagen. Das werden wir
00:22:14: ... wir wahrscheinlich in Zukunft erst noch sehen, ...
00:22:15: ... welchen Erfolg das ...
00:22:16: ... irgendwie hat, aber ...
00:22:18: ... ich würde da gerne mal wissen, ...
00:22:20: ... also du hast gesagt, du würdest es gerne mal ...
00:22:22: ... ausprobieren und du wolltest es mal verwenden ...
00:22:24: ... für repetitive Arbeiten vielleicht.
00:22:26: Da fällt mir jetzt spontan Refactoring ein.
00:22:28: Das sind ja Sachen, nach denen wir nach Pattern vorgehen.
00:22:31: Das wäre was, glaube ich, was du mal ausprobieren würdest, oder?
00:22:35: Ja, also tatsächlich habe ich da zwei Gedanken zu ...
00:22:40: ... zu der Geschichte.
00:22:42: Also einmal ...
00:22:44: Ich habe ja so ein kleines privates Projekt, wo ich so ein bisschen mit Daten rumhantiere.
00:22:51: Ich scrape mir Daten von Seiten und verarbeite die und packe die in mein Datenbankmodell
00:22:58: und so, um da auf Auswertung fahren zu lassen.
00:23:00: Damit habe ich ein bisschen rumprobiert und habe dabei festgestellt, dass es halt auch
00:23:06: sehr viel adaptiert.
00:23:07: Also GitHub Copilot benutze ich dabei.
00:23:10: Ich habe ausgestellt, dass ich Code, also man kann das in seinem GitHub Account einstellen,
00:23:15: weil man muss sich ja da mit GitHub anmelden und gegebenenfalls auch bezahlen.
00:23:19: Das hatten wir ja letztes Mal schon.
00:23:21: Und dort kann man dann einstellen, ob man Code aus der Public-Code-Basis quasi übernehmen
00:23:27: möchte und ob man seinen Code einspeisen möchte, um das Produkt zu verbessern.
00:23:31: Und das habe ich, meine ich, beides sogar deaktiviert.
00:23:36: Und trotzdem hat es meinen Code adaptiert.
00:23:42: Also ich habe das komplette Datenbank-Modell mit GitHub Copilot zusammen erstellt, habe
00:23:48: meine Code-Basis, ich bin ja in der Datenbank-Entwicklung, das heißt, da ist jetzt bei weitem nicht so
00:23:54: viel Input, sage ich mal, drin wie in JavaScript oder Python oder sowas.
00:23:58: Das heißt, ich habe dann einfach damit gearbeitet, was er sich schon gedacht hat, habe dann meine
00:24:04: Bestandteile, Benennung von Variablen, die Formatierung und so, habe ich dann damit
00:24:11: einfließen lassen und er übernimmt das tatsächlich sehr schnell. Also die Adaption erfolgt sehr schnell.
00:24:16: Und als zweiten Gedanken zu dem Enterprise-Ding mache ich mir da dann tatsächlich auch in Richtung
00:24:25: Refactoring, weil wenn man refactored hat, hat man ja vielleicht eine Code-Basis, die nicht so ideal
00:24:29: Das sehe ich zum Beispiel sehr oft. Also wir haben dann so 20, 25 Jahre alte Anwendungen,
00:24:34: die damals nicht halb so groß gedacht waren, wie das, was jetzt daraus geworden ist. Und dann sieht
00:24:42: der Code halt nicht so ideal aus und man möchte den dann vielleicht umändern auf neue Konzepte,
00:24:47: auf neue Formatvorschläge, auf neue Programmierweisen. Und die Frage, die ich mir dann
00:24:54: stelle ist, wenn ich das zum Beispiel mit GitHub CodePilot zusammen mache, analysiert der dann die
00:24:59: alte Code-Basis und nimmt das dann, so wie er meinen Code ja auch adaptiert hat in meinem
00:25:03: Projekt, nimmt er das dann und gewöhnt sich, sag mal in Anführungszeichen, diese schlechte
00:25:07: Programmierweise an und schlägt mir dann nur in Anführungszeichen wieder schlechte Sachen vor,
00:25:12: obwohl wertend, also es soll gar nicht so wertend sein, aber ihr wisst, was ich meine. Wenn der
00:25:16: Code halt nicht dem entspricht, was ich eigentlich haben möchte, dann definiere ich das gerade als
00:25:20: schlecht. Und das frage ich mich dann zum Beispiel. Also das habe ich jetzt nicht ausprobiert. Ich
00:25:26: Ich habe keine Legacy-Software damit geöffnet, weil wenn, dann habe ich ja meistens eher
00:25:31: Kundenprojekte und ich möchte nicht unbedingt den Kundencode in GitHub-Corp.it einspeisen.
00:25:37: Das mache ich lieber erst mal nur mit meinen Privatprojekten.
00:25:39: Aber das finde ich noch ein sehr interessanter Ansatz oder Ansatzpunkt vielmehr, der da
00:25:45: ja doch sehr spannend auch sein könnte, wie er das jetzt dann adaptiert.
00:25:49: Und ich glaube, Code muss nicht 25 Jahre alt sein, um schlecht zu sein.
00:25:53: Die Gefahr besteht natürlich bei allem, was wir im Netz haben.
00:25:56: Und ob das jetzt, das wäre jetzt die Adaption von dem, was wir eingangs hatten mit dem Chat-GPT.
00:26:03: Es gibt Trolle und es gibt vielleicht in dem Umfeld jetzt unabsichtliche Trolle.
00:26:07: Also ich erinnere mich natürlich an die GitHub-Zeit zurück, wo es nur Public Repositories gab
00:26:11: in den kostenlosen Accounts.
00:26:12: Da hat natürlich jeder, Hintz und Kunz, sein Privatprojekt oder sein Versuch, seine 25.
00:26:18: ... To-Do-Liste, die man so programmiert, ...
00:26:20: ... als Public Repository hochgeladen, ...
00:26:22: ... die natürlich nicht entdeckt wurde, ...
00:26:23: ... nicht gesehen wurde, weil, wieso auch?
00:26:26: Aber da gibt es natürlich jede Menge Schrott ...
00:26:29: ... auch im Netz, bin ich fest von überzeugt.
00:26:31: Und wenn das jetzt nicht der aktive Troll ist, ...
00:26:32: ... der versucht, einen Chat-GPT-Engine ...
00:26:34: ... negativ zu beeinflussen, ...
00:26:35: ... müsste ja auch GitHub da auch entscheiden, ...
00:26:39: ... aus welchen Repositories ...
00:26:40: ... die tatsächlich Wissen rausziehen ...
00:26:42: ... oder diese Erkenntnisse über den guten Code rausziehen.
00:26:45: Weil, wie ich es gerade gesagt habe, ...
00:26:47: jeder, der irgendwie eine Programmiersprache heutzutage lernt, kriegt 25 Tutorials für
00:26:51: To-Do-Listen-Apps, die alle unterschiedlich gut sind. Er programmiert die alle für sich nach,
00:26:56: vielleicht noch etwas schludriger, unorganisiert und vielleicht einfach generell nicht ganz so
00:27:00: optimiert. Das heißt, etwas, was schon nicht so super toll ist als Tutorial, also nicht bis zum
00:27:05: Ende gedacht, nicht produktiv, wie wir es jetzt sagen würden, nicht für ein produktives System
00:27:09: geeignet. Davon gibt es dann ganz, ganz viele, die sich ganz, ganz doll ähneln und die alle
00:27:15: den gleichen Zweck machen und ich würde das Ergebnis von GitHub Copilot mal mit ChatGPT und
00:27:20: Co vergleichen lassen, wenn ich denen sage, die sollen mir eine kleine To-Do-Liste, eine To-Do-Liste-App
00:27:25: zum Beispiel erzeugen. Wie kann ich diese Ergebnisse vergleichen? Eine Engine, die nur auf Textbasis
00:27:30: geht, eine Engine, die nur auf Codebasis geht, eine Engine, die nur auf Wissen zugreift, welches in
00:27:35: Code Repositories, in den eigenen Code Repositories liegt oder eine andere Engine, die ganz viele
00:27:39: Tutorials im Netz und Webseiten durchscrapt. Das wären nochmal so Versuche, die könnten wir
00:27:45: auf jeden Fall mal angehen oder sollte mal jemand angehen, vielleicht einer
00:27:48: unserer fleißigen Hörer kann da mal ein Thema draus machen.
00:27:50: Wie lassen sich die Ergebnisse vergleichen und was könnten da für
00:27:54: Schwierigkeiten noch auf die zukommen? Soll ich mich wirklich jetzt darauf,
00:27:58: außer der entstehenden Faulheit, wenn ich dieses Thema mehr machen lasse,
00:28:02: worauf sollte ich da achten oder was haben wir dazu erwarten in Zukunft?
00:28:06: Das interessiert mich echt. Ich habe noch keines dieser Systeme ernsthaft
00:28:09: ausprobiert. Ich habe JGPT mal verwendet für ein internes Projekt, was
00:28:15: wir im Unternehmen haben, mal beschreiben zu lassen. Und da habe ich wohl die richtigen drei,
00:28:20: vier Keywords in dieser Fragestellung verwendet, um dazu wirklich eine super gut passende
00:28:25: Produktbeschreibung zu finden. Und ich glaube, das Ergebnis habe ich das letzte Mal auch schon
00:28:28: angebracht. Das war meine einzige Versuche in diesem Bereich jetzt. Und während der Feiertage
00:28:34: hatte ich mein Laptop auch mal aufgeklappt und hatte gesehen, dass es da irgendwie wieder ein
00:28:39: weiteres neues Bilderzeugungswerkzeug gab. Ich komme gerade nicht auf den Namen, aber es war
00:28:45: nicht DALI, das ist ja ein Online-System, da kann man nicht darauf zugreifen, also das kriegt man
00:28:49: nicht lokal. Ich habe da eine Software runtergeladen, die sich selber im Anschluss, glaube ich,
00:28:55: irgendwie sieben oder zehn Gigabyte dieses Modell runtergeladen hat. Da konnte ich dann Begriffe
00:29:00: reingeben wie, was habe ich denn gesagt, Mädchen schaukelt auf Wiese, weil meine Tochter gerade
00:29:07: ... da war, da wollte ich das natürlich auch mal zeigen.
00:29:08: "Mädchen schaukelt auf Wiese und ein blauer Vogel ist da."
00:29:12: Sowas in der Art, das auf Englisch ein bisschen ...
00:29:15: ... weniger abstrakt formuliert, wie ich es gerade gesagt habe.
00:29:17: So einfach ein kurzer Satz, wo das beschrieben war.
00:29:20: Weil meine Tochter verlangt von mir und meiner Frau immer, ...
00:29:23: ... dass wir ein Mädchen auf einer Schaukel malen.
00:29:26: Da habe ich mir gedacht, ich mache mir das Leben doch einfacher, ...
00:29:28: ... wie ein Entwickler halt auch denkt.
00:29:29: Und habe das vom System mal generieren lassen.
00:29:32: Und wie lustig das ist, wenn man dann sagt, ...
00:29:35: ... ach ja, die hat noch einen roten Hut auf ...
00:29:36: man ändert das und plötzlich ist das gleiche Bild generiert und die hat einfach einen Hut auf. Und
00:29:40: das habe ich mal ausprobiert. Das Ergebnis dahinter war, ich habe nur kurze Zeit dafür
00:29:43: gehabt, das zu machen, so ein Bild generieren. Das hat, glaube ich, 30 Sekunden gedauert. Lokal
00:29:49: auf so einem M1 Pro Chip war das. Und das Bild hätte man wahrscheinlich noch mit Begrifflichkeiten
00:29:56: wie 3D oder weiß ich nicht, was noch verändern können. Das sah so aus, als hätte es meine
00:30:02: Tochter selber gemalt. Nein, also es war schon ein Bild, wo eine schaukelnde Landschaft und
00:30:08: Mädchen drauf war. Diese Komponenten jetzt wären auch noch glaubwürdig gewesen, aber spätestens
00:30:13: als der blaue Vogel einfach als Aufkleber obendrauf war. Also es war kein echter Vogel,
00:30:17: sondern es war ein Vogel, der war so groß wie die Schaukel. Der ähnelte sehr dem Schüttervogel.
00:30:20: Der war schlecht ausgeschnitten und der war einfach nur draufgeklebt. So, und das liegt
00:30:25: natürlich daran, dass meine Begriffe, die ich da eingegeben habe, nicht präzise genug waren.
00:30:30: Aber als ich das gesehen habe, als ich den Laptop zugeklaut habe, habe ich gesagt, jetzt kann ich in Ruhe Weihnachten feiern,
00:30:35: weil die Technologie überholt mich jetzt nicht in der Zeit, wo ich hier feiere und nicht am Computer sitze.
00:30:41: Da war ich jetzt nicht so begeistert von.
00:30:43: Aber ich glaube, das liegt nur daran, dass man die Ergebnisse online, vor allem von DALI, so feiert,
00:30:48: dass man da so krasse Sachen rausgenerieren kann, dass man sagen kann,
00:30:51: hier, mach mir bitte einen lachenden Hasen mit einem Lutscher in der Hand
00:30:54: und danach gibt man einem das Ganze bitte in 3D und es ist wirklich das gleiche Bild, nur in 3D gerendert irgendwie.
00:31:00: Und dann kann man mit einzelnen Begriffen dieses gleiche Bild noch mal weiter verändern,
00:31:04: wo man dann eindeutig sieht, dass es nicht ein vorhandenes Bild ist, was da bei Google
00:31:07: gefunden wurde, sondern wirklich ein generiertes Bild, was diese Eigenschaften auffasst, die
00:31:11: ich da eingeschrieben habe.
00:31:12: Insofern war das schon ganz interessant und vor allem, weil ich wusste, dass das auf einem
00:31:16: kleinen Laptop funktioniert, was dann einfach in Zukunft vielleicht noch ganz anders aussehen
00:31:22: wird.
00:31:23: Aber da bin ich auf jeden Fall gespannt.
00:31:24: Ja, wir haben vorhin schon über Anbieter gesprochen, die jetzt schon solche Sachen einsetzen. Das ist
00:31:31: auch eine Sache, die wir vermehrt jetzt glaube ich beobachten werden. Und zwar, wir haben natürlich
00:31:36: sowas wie, du hast Lens genannt, das ist bei mir auf die Software von Microsoft, auf die App von
00:31:45: Microsoft nochmal, hat mich da so ein bisschen daran erinnert, was ich vor ein paar Jahren,
00:31:48: das ist glaube ich auch schon fünf Jahre her, wie ich das verwendet habe. Und zwar geht man
00:31:51: dann hin und kann aus irgendeinem Winkel eine Wand fotografieren und dann werden die Informationen
00:31:56: davon aus diesem Bild erstmal perspektivisch angepasst. Das ist jetzt wahrscheinlich
00:32:00: heutzutage kein beeindruckendes Feature mehr, aber ich glaube, auch das passiert anhand von
00:32:06: Modellen, die da berechnet werden. Und anschließend wird natürlich auch diese verzerrte Schrift,
00:32:10: wenn das Handschrift auf so einer Folie zum Beispiel ist an der Wand, mit einem Overhead-Projektor oder
00:32:15: so. Dann wird diese Schrift und das Bild im Generellen perspektivisch so gebracht,
00:32:21: als würde man drauf gucken und danach wird auch noch der Text gelesen, der da drauf ist,
00:32:24: mittels so einer OCR-Technologie. Und das war schon ein Meilenstein für mich,
00:32:29: weil ich dann in der Lage war, Codesnippets von Folien an der Wand nicht nur abzufotografieren,
00:32:34: sondern zu Hause auch einfach in den OCR-Infos dann diesen Sourcecode rauszukopieren und bei
00:32:39: mir einfach mal auszuprobieren, ohne irgendwo nach den Originalfolien von dem Auto zu suchen,
00:32:48: sondern ich konnte den Code von Fotos dann einfach abgreifen. Das Gleiche macht Apple
00:32:51: jetzt auf iPhones auch. Seit, glaube ich, iOS 16 ist es so, dass man da, wenn man Fotos macht,
00:32:56: um das Text draufzuerkennen, so ein kleines Symbol kriegt, wo dann dieser Text freigestellt wird,
00:33:00: oder dass man lange draufdrückt und Text markieren kann von diesem Foto und das rausziehen kann. Oder
00:33:07: Was ich auch häufig verwendet habe, ist, ich habe immer, wenn ich irgendwelche ...
00:33:10: ... Gutscheincodes irgendwie per E-Mail kriege oder so was, dann speichere ich ...
00:33:13: ... mir nicht die E-Mail, sondern ich mache Screenshots von meinem Handy.
00:33:15: Das ist, glaube ich, total steinzeitlich, was ich da mache.
00:33:17: Aber ich mache ein Screenshot davon, dann landet das in meiner Fotomediathek.
00:33:21: Und wenn ich dann hinterher hingehe und brauche einen Gutschein für irgendwas, ...
00:33:25: ... dann tippe ich in das Suchfenster um Gutschein ein.
00:33:27: Oder das iPhone hat gelesen, dass auf diesen Screenshots überall das Wort ...
00:33:31: ... Gutschein herkam. Vielleicht gebe ich noch einen weiteren Begriff dazu ...
00:33:33: ... und dann habe ich quasi ein Screenshot von ...
00:33:37: ... dem Gutschein, den ich mir da entweder ...
00:33:38: ... irgendwo abfotografiert habe, so einen Flyer ...
00:33:40: ... oder vielleicht eine E-Mail, die ich ...
00:33:41: ... gescreenshotted habe oder was auch immer es ist.
00:33:44: Und solche Sachen, die helfen uns tatsächlich weiter ...
00:33:47: ... mit Google Lens, mit ...
00:33:50: ... Lens hieß das Produkt auch von Microsoft, ...
00:33:54: ... was sie dann in ihrer Produktpalette drin hatten ...
00:33:57: ... oder auch TikTok und Discord, das sind ja eher so ...
00:33:59: ... Unterhaltungsmedien, wo diese Sachen angewendet werden.
00:34:02: Ich glaube, schrittweise wird das Ganze adaptiert, wird unser Leben erleichtern oder in dem Fall
00:34:06: vielleicht auch entertainen.
00:34:07: Und irgendwann wird es dann auch vermute ich mal so sein, dass es einfach unser tägliches
00:34:13: Leben in jeder Situation verändern wird.
00:34:15: Ich bin schon gespannt, wenn das System auch für unsere ausgespielte Werbung über Alltag
00:34:19: täglich verwendet wird und anhand von den Sachen, die wir im Laden zu unserem Partner
00:34:23: sagen beim Einkaufen an der Kasse noch Sachen vorgeschlagen werden, die wir noch kaufen
00:34:26: könnten.
00:34:27: Das sind, glaube ich, diese Szenarien.
00:34:29: würde man nochmal nach Orwell ein neues Buch schreiben können. Oder vielleicht einfach per
00:34:35: ChatGPT einen neuen Roman von George Orwell schreiben lassen, einfach über diese Zukunft
00:34:41: von AI. Ja, das fand ich war ein sehr schönes Schlusswort. Also ich kann nur jedem empfehlen,
00:34:50: wenn euch das ein bisschen interessiert, auch gerade was halt so die Entwicklungswerkzeuge
00:34:55: angeht, spricht mal mit Chet GPT, was er für Code generieren würde, schaut euch das mal an oder
00:35:02: probiert ein bisschen GitHub Copilot aus. Ich glaube zwei oder drei Monate, ich bin mir gar nicht mehr
00:35:07: ganz sicher, sind kostenfrei. Die kann man das testen und er adaptiert und lernt wirklich sehr
00:35:12: schnell und jetzt vielleicht nicht den Unternehmenscode damit benutzen oder öffnen, aber ihr wirst schon
00:35:18: einfach mal ein bisschen damit rum scribbeln, ein bisschen rumprobieren, vielleicht eine ganz kleine
00:35:22: App schreiben und einfach mal gucken, wie sich das anfühlt. Und bei GitHub Copilot zum Beispiel kann
00:35:28: ich auch empfehlen, Visual Studio Code gibt es ja diese Erweiterung, diese Plugins, die man sich
00:35:34: installieren kann und darunter ist ja GitHub Copilot selbst auch dabei. Und es gibt aber
00:35:38: noch ein GitHub Copilot Lab und dieses Lab, gerade wenn ihr JavaScript entwickelt oder irgendeine,
00:35:45: weiter verbreitetere Sprache als PL/SQL, also wahrscheinlich fast alles. Wenn ihr damit
00:35:52: programmiert, dann probiert das auch gerne mal aus, weil dort gibt es zum Beispiel auch so Features,
00:35:57: womit sie jetzt drum probieren, wo man zum Beispiel einen Bug fixen lassen kann automatisch
00:36:02: oder wo man seinen Code dokumentieren lassen kann automatisch und das umstrukturieren lassen kann
00:36:08: und umschreiben lassen kann und sogar refactoren oder so. Also ja, gerne ausprobieren. Und wie
00:36:14: wie es am Anfang auch angekündigt war. Wir hoffen, dass wir natürlich im weiteren Verlauf
00:36:19: dieses Jahres vielleicht jemanden hier ans Mikro bekommen, der uns noch ein bisschen mehr
00:36:23: Hintergrundwissen dazu gibt. Da waren sehr viele persönliche Meinungen dabei, sehr viele eigene
00:36:27: Interpretationen und vielleicht auch die ein oder andere Falschinformation, die wir so aufgefasst
00:36:32: haben oder die wir jetzt auch hiermit leider verbreitet haben. Wir hoffen, dass wir mit
00:36:35: einem Spezialisten noch mal darüber sprechen können, der mehr über den Background hat,
00:36:38: der vielleicht auch wirklich technisch mal was dazu erklären kann, was wir da gerade so
00:36:42: abstrahiert haben. Was wir hoffentlich auf jeden Fall geschafft haben, ist euer Interesse mal zu
00:36:47: wecken und die verschiedenen Begriffe und Technologien mal ein bisschen näher zu beleuchten,
00:36:51: wie Caro gerade gesagt hat. Entweder mal ausprobieren, so wie GitHub Copilot oder
00:36:54: ChatGPT oder comma.ai einfach mal nachlesen, Interviews und Videos angucken, wie die denn so
00:36:59: arbeiten. Ich glaube, als Denkanstoß sollte diese Folge oder diese Doppelfolge wirklich dienen. Und
00:37:05: ja, in diesem Sinne bedanke ich mich ganz herzlich bei dir, Caro, für diese tolle,
00:37:09: lange Folge jetzt als Auftakt ins neue Jahr. Und bedanke mich natürlich auch an alle Hörer,
00:37:16: oder bei allen Hörern, die uns auch dieses Jahr wieder treu bleiben und uns direkt in der ersten
00:37:20: Folge hier wieder anhören und hoffentlich auch den Rest des Jahres bei uns bleiben.
00:37:25: Und nochmal, um das Ganze von vorne aufzurollen, wenn ihr eine Person habt oder ein Thema habt,
00:37:36: auch, was euch total interessieren würde, wo ihr gerne vielleicht auch mal einen Deep Dive hören
00:37:41: wollen würdet, dann schreibt das gerne in die Kommentare oder lasst uns einen Kommentar auf
00:37:47: Twitter da oder Mastodon bin ich jetzt auch mittlerweile oder E-Mail. Ihr wisst, wie ihr
00:37:54: uns erreichen könnt. In den Show Notes findet ihr unsere Daten und ja, wir freuen uns von euch zu
00:38:00: hören. Sind wir schon so weit, um ein Hashtag ins Leben zu rufen? Sollen wir sagen #sagsweiter?
00:38:05: weil das ist eigentlich unser Motto, sowohl wenn ihr spannende Themen habt, wie Caro gerade gesagt
00:38:09: hat, aber auch wenn ihr einfach nur die Folge cool findet, teilt sie doch einfach, sprecht darüber.
00:38:13: Es hilft uns immens weiter, ihr müsst noch nicht mehr aktiv dazu beitragen, zu der Folge oder zu
00:38:17: Gästen oder was auch immer. Es reicht uns eigentlich oder es hilft uns schon wirklich
00:38:21: weiter, wenn ihr einfach, ja, Devs on Tape einfach mal, ja, einfach weiterverteilt. Erzählt auch mal
00:38:27: davon, ja, bestellt bei uns Merch, den wir nicht anbieten. Komisch, frag mal nach, was es gibt,
00:38:32: wenn es genügend Fragen kommt. Sagt einfach weiter, spread the word, wie auch immer ihr das
00:38:37: nennen wollt. Teilt es gerne. Wir sprechen natürlich trotzdem gerne zu euch, auch wenn
00:38:41: ihr nur ihr seid. Aber noch lieber sprechen wir natürlich noch zu noch mehr Technik und
00:38:48: Technologieinteressierten hören eigentlich. In diesem Sinne wünschen wir euch alle einen
00:38:54: schönen Start ins Jahr und viel Spaß mit den nächsten Folgen von Devs on Tape. Bis dann.
00:38:59: [Musik]
Neuer Kommentar