Dieser Podcast ist eine initiative der Development Community des DOAG e.V.

Devs on Tape - AI (Teil 2)

Shownotes

Wir sprechen, auch in der zweiten Folgen Devs On Tape in diesem Jahr, über verschiedene AI-Technologien und unsere Anwendungen für diese. Wie immer sind, das darf natürlich nicht fehlen, viel eigene Meinung und Einschätzungen enthalten. ;-)

Heute beginnen wir mit dem Thema "autonomes Fahren". Nach welchen Gesichtspunkten muss eine AI im Ernstfall entscheiden und wer entscheidet das wiederum? Wir sprechen auch das Projekt "comma.ai" von George Hotz an und vergleichen es zu abgeschlossenen Systemen, wie dem Tesla.

Neben den Autos und dem autonomen Fahren, handelt diese Folge auch von der AI unterstützten bei unser aller Jobs.

sagsWeiter!

Devs On Tape auf Twitter: @devsontape Kai Donato - kai.donato@mt-ag.com - Twitter: @_KaiDonato Carolin Krützmann - carolin.hagemann@doag.org - Twitter: @CaroHagi

Dieser Podcast genießt die freundliche Unterstützung der Deutschen Oracle Anwender Gruppe (DOAG e.V - https://doag.org)

Transkript anzeigen

00:00:00: [Musik]

00:00:16: Hallo und herzlich willkommen zu einer neuen Ausgabe von Devs on Tape.

00:00:19: Heute als Fortsetzung von der Folge von vor zwei Wochen zum Thema AI.

00:00:24: Ich wünsche euch viel Spaß damit und bis übernächste Woche.

00:00:29: Wir haben auch noch ein ganzes Thema, welches ich jetzt mal gerne anschneiden würde.

00:00:32: Und zwar ist das mal auch ein ganz großes Feld von dieser Artificial Intelligence, ...

00:00:38: ... ist auch schon eine ganze Zeit lang unterwegs.

00:00:40: Und zwar ist das das automatisierte Fahren oder das autonome Fahren.

00:00:43: Hast du dich mit dem Thema schon auseinandergesetzt?

00:00:45: Du hast ja einen Führerschein, Caro.

00:00:47: Ja, genau.

00:00:48: Wenn du in Hamburg wohnst und wahrscheinlich nicht mit deinem Auto selber unterwegs sein willst, ...

00:00:51: ... hast du einen Führerschein.

00:00:53: Hast du dich mit dem Thema auseinandergesetzt?

00:00:54: Nur soweit, um zu dem Schluss zu kommen, dass für mich autonomes Fahren nur funktioniert,

00:01:01: wenn alle autonom fahren.

00:01:02: Ja, das ist auch ein Schluss.

00:01:05: Ja, das macht Sinn.

00:01:06: Ja, also ich fand zum Beispiel die Folge mit Karin total interessant, wo wir da über diese

00:01:12: Modelle gesprochen haben und was autonome Fahrzeuge dann, wie sie quasi ihre Umgebung

00:01:18: wie sie ihre Umgebung abtasten und das Ganze dann verarbeiten und so. Das war für mich noch mal ein

00:01:30: anderer Aspekt, als man sonst vielleicht auch selber als Entwickler darüber nachdenkt, wenn man

00:01:36: sich darüber Gedanken macht. Aber bis auf so ein Beispiel erklärt anhand eines solchen Modells,

00:01:45: wie denn Machine Learning so funktionieren könnte, habe ich mich tatsächlich noch nicht beschäftigt.

00:01:50: Ich habe auch keinen Tesla oder so was oder ein E-Fahrzeug, welches autonom fahren kann.

00:01:54: Ja, also ich würde jetzt auch nicht behaupten, dass ich mich da großartig mit auseinandergesetzt

00:01:58: habe, aber ich habe so ein paar interessante Punkte dazu, die wir gerne mal hier besprechen

00:02:03: können, auch wenn ich die dann überwiegend vielleicht eher Fragen stelle, was du dafür

00:02:07: hältst. Aber im Grunde genommen gibt es diese eine Frage, die ich auch nie beantworten konnte

00:02:11: und weshalb das autonome Fahren auch in Deutschland, glaube ich, noch nicht erlaubt wird. Es gab immer

00:02:14: diese Frage vor diesen ganzen AI-Themen, die jetzt ganz groß in den Medien sind,

00:02:18: gab es immer diese Frage, kann eine Maschine tatsächlich die Entscheidung

00:02:22: treffen, wie würde eine Maschine sich entscheiden, wenn es die Wahl hätte, ein

00:02:28: Kind zu überfahren oder einen alten Menschen? Und wie würde diese

00:02:31: Entscheidung getroffen werden? Und solange die nicht getroffen werden kann,

00:02:33: können wir einem Auto auch diese Entscheidung nicht überlassen.

00:02:36: Nach welchen Gesichtspunkten wird sowas gemacht? Und würde man jetzt

00:02:40: hingehen und ChatGPT fragen, wie man umfahren soll oder wie die richtige

00:02:44: Lösung ist oder fahre ich gegen die Wand, um mich selber nur davon zu treffen und nicht die

00:02:48: unschuldigen Passanten oder wer ist jetzt mehr wert, Lebenserwartung und so weiter. Natürlich

00:02:53: mit mehr Rechenpower, mit mehr Meinungen, die Menschen in dieses System reingefüttert hat,

00:02:57: wird vielleicht ein Auto irgendwann anhand dieser Berechnungen eine Entscheidung treffen,

00:03:03: die wahrscheinlich einem Gro der Gesellschaft entsprechen wird. Das ist jetzt so ein Gedanke,

00:03:07: der vielleicht da noch nicht gefunden wurde, aber wie sieht es mit der Gerichtbarkeit dann

00:03:11: ... dann auch aus.

00:03:12: Also die Maschine, ich glaube schon, dass so eine KI ...

00:03:16: ... dann in der Lage wäre, so zu entscheiden, wie es ...

00:03:18: ... ein Großteil der Menschen wäre.

00:03:20: Aber haben wir dann Mehrheits, haben wir dann Demokratie ...

00:03:22: ... beim Töten von Menschen durch Autos?

00:03:24: Also wie würde ein Großteil der Menschheit ...

00:03:26: ... darauf reagieren oder in dieser Situation ...

00:03:28: ... entscheiden und so wird dann dieses System ...

00:03:30: ... dafür entscheiden.

00:03:31: Aber das ist das Thema, was das autonome Fahren, ...

00:03:34: ... ich wollte gar nicht so tief in das Thema ...

00:03:36: ... mit dieser Entscheidung oder mit diesem ethischen ...

00:03:38: ... Aspekt da reingehen, aber das ist das Thema, ...

00:03:40: Aber das ist das, warum Autos auch bisher noch nicht autonom fahren, weil es gewisse

00:03:44: Entscheidungen, gewisse Situationen gibt, in denen dann einfach keiner mehr verantwortlich

00:03:47: auch dafür ist, was dann da passiert.

00:03:49: Und wenn sowas Banales ist wie Versicherungen, die das nicht übernehmen, was ein Auto für

00:03:53: Straftaten oder für Unfälle begeht, die eigentlich nicht der Fahrer hat.

00:03:57: Weil die Firmen werden es von sich weisen, natürlich der Fahrer wird es auch von sich

00:04:00: weisen, weil er konnte zwar reagieren, aber nicht schnell genug oder so.

00:04:03: Ich glaube, dafür ist Deutschland auch einfach noch zu korrekt, als dass sowas gemacht werden

00:04:08: kann, einfach so verabschiedet werden kann.

00:04:10: Aber wenn wir einfach mal über den Teich rübergucken, ...

00:04:12: ... nach Amerika, wo die Teslas halt auch mit Betas rumfahren ...

00:04:16: ... von komplett selbstgesteuerten Autos, die wirklich ...

00:04:19: ... völlig ohne Fahrrad zurechtkommen, ...

00:04:21: ... da sehen wir so ein Modell, ...

00:04:23: ... was mit Sicherheit der Zukunft entspricht ...

00:04:26: ... und was komischerweise auch von dem gleichen Typen stammt, ...

00:04:28: ... der auch OpenAI, glaube ich, gegründet hat.

00:04:30: Da steckt ja, glaube ich, überall Elon Musk hinter.

00:04:33: Dass wir da bei der Falschinformation bitte rausschneiden.

00:04:40: Da stecken auf jeden Fall Leute hinter, die in der Zukunft noch viel mehr erforschen wollen ...

00:04:44: ... und das einfach Geld und Risiko in die Hand nehmen, um so was in der breiten Masse zu machen.

00:04:47: Und dann sehen wir bei diesem autonomen Fahren, dass die Teslas ganz viel die Umgebung selber noch scannen, ...

00:04:54: ... sich untereinander austauschen, dann übers Netz mit den Erfahrungen, die sie gemacht haben, ...

00:04:57: ... immer detailliertere Karten bauen können, immer detailliertere Modelle, ...

00:05:00: ... immer mehr Entscheidungsbäume aufbauen können, ...

00:05:02: ... wo wir wieder bei dieser AI-Thematik mit den neuronalen Netzen sind, ...

00:05:06: ... immer mehr diese Modelle aufbauen können, wie reagiere ich in dieser Situation, ...

00:05:10: was muss ich da machen? Da fehlt eine Fahrbahnmarkierung, aber ich wüsste, dass die eigentlich da lang

00:05:13: weitergeführt werden muss, weil ich genügend Informationen darüber habe, wie diese Straßenführung

00:05:17: in Amerika ist zum Beispiel. Oder diese Ampel, die springt in dem Takt und in dem Zeitraum um und

00:05:22: die ist hier, dann kann ich das bei mir natürlich auch darstellen. Solche ganzen Sachen, das erforschen

00:05:27: die gerade und da arbeiten die gerade dran und die haben tatsächlich ganz viele Autos auf der

00:05:30: Straße in Amerika, ganz viele Teslas, die diese Betas testen und die sich alleine fahren. Da sitzt

00:05:35: der Fahrer daneben, der kann eingreifen, aber so steigt und wächst dieses Modell und das ist, glaube

00:05:39: ich eine Sache, die genauso wie alle anderen AI-Themen in Zukunft so stark wachsen werden,

00:05:44: dass das nur noch eine Frage der Zeit ist, bis die Dinger so gut sind, dass wir wirklich

00:05:47: komplett autonom unterwegs sein können. Auch da ist einfach ein großes Feld, das hat nichts mehr

00:05:52: mit Sprache und Wissen zu tun, sondern tatsächlich einfach nur mit Nachahmung, mit Lernen von

00:05:59: Reaktionen und von Aktionen, die da passieren, dass man da einen Menschen ersetzen kann. Und in

00:06:04: dem Fall nicht als arbeitende Kraft, wie es in einer Maschine in einer Fabrik wäre, sondern

00:06:09: einfach nur den Fahrer eines Autos, der eigentlich in diesem Fahrprozess für uns als naive Autofahrer,

00:06:18: sage ich jetzt mal, also ohne da großartig Gedanken rein zu verschwenden, dass man da

00:06:23: ganz gut ersetzt werden kann. Weil es gibt die Verkehrsregeln, es gibt das, was wir sehen,

00:06:26: es gibt darauf müssen wir reagieren, da gibt es bestimmte Entscheidungen, die wir treffen,

00:06:30: und warum sollte die nicht eine Maschine für uns übernehmen können. Und wenn die Maschine

00:06:34: ... immer schlauer und immer klüger wird ...

00:06:35: ... und auch immer mehr Vertrauen von Menschen gewinnt, ...

00:06:37: ... dann kann ich mir ...

00:06:39: ... nicht vorstellen, dass das noch lange ein Thema sein wird.

00:06:42: Und dann ...

00:06:44: ... habe ich natürlich nicht nur über Tesla ...

00:06:46: ... nachgelesen oder das auch rausgekriegt, ...

00:06:48: ... sondern ich habe auch vor kurzem ein ...

00:06:50: ... ganz, ganz interessantes ...

00:06:51: ... Interview-Podcast ...

00:06:52: ... oder einen ganz interessanten Interview-Podcast ...

00:06:55: ... mit Georg Hotz oder George Hotz ...

00:06:57: ... gehört.

00:06:58: Und zwar ist er ...

00:06:59: ... also zum Background, der ist ...

00:07:01: ... einer der ersten Hacker des iPhones gewesen ...

00:07:03: unter Playstation 3 und ist immer wieder aufgefallen durch wahnsinnig krasse

00:07:07: Hacking-Aktionen, ist ganz viel in den Medien gewesen. Jetzt kürzlich ist er in den Medien

00:07:12: gewesen, weil er, glaube ich, in zwei Wochen ein kostenloses Praktikum, also

00:07:16: unbezahltes Praktikum bei Twitter gemacht hat, weil er gesagt hat, die Search Engine

00:07:20: ist für den Allerwertesten. Und dann hat er mit dem Maskin eingestellt, als Praktikanten doch in

00:07:25: zwei Wochen den Code für diese Such-Engine von Twitter neu zu schreiben.

00:07:29: Der ist immer so in die Medien gekommen und 2015 hat er tatsächlich, da haben wir wieder

00:07:34: das nächste tatsächlich, eine Firma gegründet, die sich damit auseinandersetzt, wie man die

00:07:39: Autos auch auf der Straße autonom fahren lassen kann, ohne dass man jetzt so ein Auto,

00:07:44: was glaube ich zu dem Zeitpunkt noch nicht auf dem Markt war oder noch nicht veröffentlicht

00:07:48: wurde, mit dem Tesla, das alles zu haben, ohne ein dediziertes Auto dafür zu haben.

00:07:53: Also Tesla ist ein abgeschlossenes System, das ist ein Auto, das ist eine Software drin

00:07:57: und wenn du ein autonomes Auto haben möchtest, hast du eine ganze Zeit lang nur einen Tesla

00:08:01: bekommen. Und da hat der Georg Hotzig die Aufgabe gemacht, mit seiner Firma Comma AI eine Software

00:08:09: zu schreiben und auch teilweise Hardware hat er dafür natürlich auch bereitgestellt,

00:08:12: um mit künstlicher Intelligenz normale Autos zu selbstfahrenden Autos zu machen. Das heißt,

00:08:18: der hat an den Steuerbus vom Auto eine Box drangehangen, die dann halt diese Steuersignale

00:08:25: absendet. Wir wissen ja auch alle mit so einparkassistenten und sowas, dass sich

00:08:28: auch so ein Lenkrad natürlich mechanisch ohne den Einfluss von einem Mann oder von

00:08:32: einer Frau hinterm Steuer drehen lässt. Und so hat er halt auch so Tempomaten

00:08:37: angebunden, dass er dann natürlich Gas geben konnte und bremsen konnte und

00:08:40: solche ganzen Geschichten. Blinker sind ja auch schon lange keine Biometallstreifen

00:08:43: mehr. Der hat diese ganzen Signale halt mit dieser Box gesteuert und war

00:08:47: in der Lage mit seiner Software ganz viele Honda, ich glaube, er hat angefangen

00:08:52: mit Honda-Fahrzeugen, ganz viele Honda-Modelle autonom fahrbar zu machen. Also der ist hingegangen

00:08:58: und hat diese Boxen dann dafür drangehangen und hat dann diese normal fahrenden Autos dazu befähigt,

00:09:05: selber abbiegen zu können und Straßensituationen bewerten und auch eingreifen zu lassen. Und er

00:09:13: hat dann 2016 ein System rausgebracht, das quasi echt auch nur auf Smartphone-Technologie basierend

00:09:21: gearbeitet hat. Das heißt, das war echt ein ungebautes Handy, was diese Steuersignale

00:09:25: dann verarbeiten konnte und aussenden konnte. Und hat das zunächst, wie ich gesagt habe,

00:09:29: für verschiedene Honda-Modelle gemacht und hat dann aber leider auch einen großen Dämpfer

00:09:34: bekommen, weil auch da war Amerika noch nicht so weit, sowas zu erlauben. Da muss wahrscheinlich

00:09:37: erst ein Elon Musk um die Ecke kommen mit Tesla, damit solche Sachen dann gelockert werden. Der

00:09:41: durfte sein AI-gesteuertes Selbstfahrsystem nicht auf den Markt bringen oder nicht weiterverkaufen,

00:09:48: weil da die sogenannte National Highway Traffic Safety Administration das verboten hat,

00:09:53: weil die sind einfach auch noch nicht so weit gewesen, dass sie das irgendwie hätten gestatten können,

00:09:57: dass da irgendeine Software irgendein Auto steuert.

00:09:59: Das würde ich jetzt mal fast so sagen, den Stand auch, den wir jetzt in Deutschland gerade haben,

00:10:03: weil da ganz viele Fragen nicht geklärt sind.

00:10:05: Und das hat er dann auch später im Jahr, quasi, ich glaube sogar fast einen Monat später nur,

00:10:12: zum Anlass genommen das Ganze unter dem Namen OpenPilot,

00:10:16: nicht mehr ",1" oder ",2" oder sowas zu veröffentlichen, sondern er ist dann hingegangen und hat seine Software unter dem Namen OpenPilot auf Open-Source-Basis veröffentlicht,

00:10:27: damit da so viele Menschen wie möglich irgendwie von profitieren können und das für sich einbinden können.

00:10:33: Da hat er dann im Anschluss aber auch, ich habe übrigens Medienkompetenz mäßig jetzt hier auch auf Wikipedia zurückgegriffen,

00:10:40: weil ich das in komprimierter Form alles wiedergeben möchte. Also bitte nicht jetzt hier

00:10:45: Compliance anrufen und sagen, dass ich da abgekupfert habe oder mich eines anderen

00:10:49: Werkes bedient habe. Das kommt alles von der Wikipedia-Seite von Jakoma AI bzw. von Geocodes.

00:10:55: Ja, die haben nochmal einen zweiten Aufschlag versucht und zwar das erste Produkt dieses Jahr,

00:11:00: "Koma One". Und jetzt haben sie, nachdem sie es auch nochmal als Open Pilot veröffentlicht haben,

00:11:05: ein Produkt auf den Markt geschmissen. Das war im Januar 2020, also vor gut drei Jahren,

00:11:10: das für knapp 1000 Dollar in der Lage ist, dein Auto trotzdem nach wie vor so zu steuern. Und

00:11:16: zwar haben die sich dann auch wieder so ein bisschen, naja, in einer gewissen, ja, wie soll

00:11:21: man sagen, nicht Grauzone, aber in einer gewissen Richtung orientiert, dass sie gesagt haben,

00:11:25: naja, du kannst das Produkt kaufen, kostet 1000 Euro, ist eine Dashcam, ist eine sehr teure Dashcam

00:11:30: dann. Die packst du dir vorne in dein Auto. Aber du kannst natürlich ganz einfach Open Pilot kaufen

00:11:35: oder beziehungsweise runterladen, kosten muss, und kannst es sehr einfach auf das Device von

00:11:40: uns drauf spielen, welches ja super geeignet dafür ist, aus komischer Art und Weise. Ja,

00:11:45: und dann hat es tatsächlich ab 2016 für ganz, ganz viele US-Markt-Pkws oder Pkws aus dem US-Markt

00:11:54: Selbststeuerfähigkeiten zur breiten Masse gebracht. Ich finde das immer wieder beeindruckend,

00:11:59: wie gerade so ein Typ, der mit Playstation 3 Hacking und mit iPhone Hacking immer wieder

00:12:03: so eine Grenze gesucht hat, die er überstreiten kann zur Legalität. Ich weiß nicht, wie das jetzt

00:12:08: bewertet wird, was die da 2020 gemacht haben. Jetzt, wo es natürlich auch noch viele andere

00:12:13: Autohersteller gibt, die ähnliche Sachen machen, wo dann auch Spurwechsel automatisiert funktioniert

00:12:17: plötzlich und die das dürfen. Jetzt sind sie dann, glaube ich, noch ein bisschen näher auf

00:12:22: dem legalen Weg, dass sie so etwas anbieten können, was dann der breiten Masse zur Verfügung

00:12:29: gestellt werden können mit diesem kleinen Software-Hack, der nicht ganz

00:12:33: offen legal ist, sondern eher so Hinweise gibt. Ihr habt die Hardware, da ist ein

00:12:36: Dashcam-Software drauf, ihr könnt damit Videos aufnehmen für 1000 Euro, aber

00:12:40: zufälligerweise OpenPilot könnt ihr drauf packen, könnt ihr dann alles

00:12:44: verwenden. Das finde ich ganz interessant und in diesem Interview, wo das

00:12:49: als Infos auch übermittelt worden ist, hat er auch ein paar Aussagen dazu

00:12:52: getroffen, die uns jetzt vielleicht zu dem Thema mit den Server-Farm und mit der

00:12:55: mit der Rechenleistung und so weiter zusammenhängen, wie der da zurückführt. Und zwar hat er darüber

00:13:00: erzählt, wie die Comma AI oder diese Open Pilot trainieren. Und zwar trainieren die nicht aus

00:13:09: Real-Life-Daten, wie es zum Beispiel Tesla tut oder unter anderem Tesla tut, ich weiß natürlich

00:13:14: nicht, was die alles machen, aber wie es auch ChatGPT tut, die gehen auch auf öffentliche,

00:13:20: auf Real-Daten, auf Real-Menschen, auf echte Anfragen von echten Menschen zu und speichern

00:13:25: das analysieren lassen, verwenden das wieder, sondern die gehen hin und suchen Verkehrssituationen

00:13:30: raus, generieren die, simulieren die und haben dann ganz, ganz viele parallele VMs, so habe

00:13:34: ich mir das jetzt mal vorgestellt, auf Serverfarm laufen und lassen ihre eigene Software auf

00:13:38: Simulationen laufen und da lernen.

00:13:40: So, und das ist quasi das Gleiche wie, ich habe Entscheidungsbäume in diesen neuralen

00:13:46: Netzen und entscheide selber als Mensch dann, wenn ich was sehe und sehe das Ergebnis dann

00:13:51: unten dran, dass ich dann immer positiv drücke oder negativ und anhand dieser Antworten und

00:13:54: der Vorauswahl und dieser ganzen verschiedenen Faktoren kann das System dann den besten Weg

00:13:59: ermitteln und kann für die Zukunft so die sogenannte Learning machen. So, und das machen

00:14:04: jetzt andere Autos und andere Software mit realen Daten und die machen es halt aber einfach in

00:14:11: Simulation. Das heißt, die können tatsächlich fünf bis zehn Millionen Autos von mir aus

00:14:16: gleichzeitig in die gleiche Verkehrssituation führen und können die Software anhand dieser

00:14:21: Ergebnisse und vielleicht kleine Änderungen von Parametern, die aktiv beigesteuert werden,

00:14:26: daran lernen lassen. Dann fährt ein Auto auf eine Kreuzung zu, das erste Auto hat grün, fährt um die

00:14:30: Ecke, das nächste Auto hat orange, fährt um die Ecke und das nächste Auto hat rot und fährt um die

00:14:35: Ecke. Die wissen genau, welche Parameter verändert wurden und wissen genau, wie die Maschine darauf

00:14:39: reagieren soll in der Situation. Und das ist unterschiedliche Ansatzformen des Ganzen,

00:14:46: unterschiedliche Herangehensweise und ich bin echt gespannt, wie sich das im Vergleich zu dem,

00:14:50: was Tesla zum Beispiel macht, in Zukunft weiterentwickeln wird. Also was da ein Zug gewährt,

00:14:55: weil Tesla, und das ist nochmal so eine weitere Information, die ich natürlich dazu recherchiert

00:15:00: habe, Tesla nicht wert war, die Firma von Girlcods zu kaufen, als es da ein Angebot gab von seiner

00:15:07: Seite. Die machen das halt einfach generell alles anders. Ich bin gespannt, welche Art und Weise da

00:15:13: die Zukunft sein wird. Ja, das finde ich auch sehr spannend. Also ich habe zum Beispiel auch gehört,

00:15:20: dass Tesla mit jedem Fahrzeug, das es verkauft, auch wenn es nicht autonom fährt, dass sie trotzdem

00:15:30: mit jedem Auto Karten und Situationen und einfach Daten, ganz, ganz viele Daten sammeln. Und dadurch

00:15:38: Tesla natürlich, ich weiß nicht, wie der Stand jetzt ist, weil ich da nicht so in dem Game drin

00:15:43: bin, aber Tesla war wohl eine ganze Zeit lang deswegen so datentechnisch einfach ganz, ganz

00:15:48: weit vorne, was diese ganze autonome Fahren-Geschichte angeht, weil sie sich in der Art einfach schon

00:15:55: mal sehr viel Zeug, sag ich mal, gesichert haben, was sie dann analysieren können.

00:16:00: Ich glaube auch, dass es gar keinen Zeitpunkt in der Menschheitsgeschichte gab, wo mehr Autos mit

00:16:07: Lidar-Scannern oder Radarscannern und Kameras und so weiter durch die Gegend fahren. Also mein Golf

00:16:13: zum Beispiel hat auch einen Radar vorne, wo auch die vorausfahrenden Autos mit erkannt und gescannt

00:16:19: werden. Aber das, was da in Teslas drin ist, und wir haben jetzt wirklich jede Menge Teslas

00:16:23: weltweit rumfahren, was die für Sensoren drin haben, die die Umgebung allein nur beobachten

00:16:27: und messen und aufnehmen. Ich glaube, da lassen sich wirklich sehr, sehr detaillierte Karten und

00:16:32: auch Situationen mit erfassen und aufnehmen. Und auch das kann ja gut genutzt werden mit Sicherheit.

00:16:39: Und ich glaube auch, dass wenn das System weitergeht und auch die Rechenpower, da bin ich

00:16:42: wieder bei dem Thema, die Rechenpower stärker wird, die ganzen erfassten Daten viel effizienter und

00:16:47: effektiver ausgewertet werden können, dass wir damit Sicherheit viele Sachen zu erwarten haben.

00:16:51: Vor allem, wenn dann noch mehr Firmen, mehr Unternehmen, mehr Autohersteller den gleichen

00:16:55: Zug mit aufspringen und dieser Switch gemacht wird, dass alle darauf gehen und vielleicht sich

00:16:59: sogar auch mal zusammenschließen, wie es bei anderen Karten zum Beispiel ist, wo sich bei

00:17:04: hier Karten zum Beispiel viele Autohersteller zusammen oder Car-Entertainment-Systemhersteller,

00:17:09: Navigationssystemhersteller, wie die sich zusammentun, um gemeinsame Karten zu entwickeln,

00:17:14: damit man wirklich eine gute Datenbasis hat. Und wenn das vielleicht auch mal irgendwann mit AI

00:17:19: oder KI und was auch immer für Systemen auch mal der Fall sein wird, können wir das mit Sicherheit

00:17:25: zu einer Bereicherung unserer Gesellschaft führen. Da bin ich ziemlich überzeugt davon,

00:17:32: dass das klappen kann. Aber das Auto-Thema soll jetzt natürlich auch nicht alle langweilen.

00:17:37: Vielleicht gehen wir noch mal zu dem Thema zurück, was wir im Bereich Development haben. Wenn wir

00:17:43: jetzt noch mal über GitHub Co-Pilot sprechen, da gibt es, glaube ich, auch noch ein paar neuere

00:17:47: Infos. Ich habe da jetzt noch mal einen kurzen Artikel darüber gelesen, was da die Unterschiede

00:17:52: sind. Wir haben es letztes Mal so ein bisschen als Behauptung in dem Raum stehen lassen zu dem Thema,

00:17:56: ja, vielleicht noch mal als kurzen Recap, du hast es gerade schon mal gesagt, aber GitHub Copilot ist

00:18:01: die Form von, ich sage jetzt wirklich so ganz platt, Chat-GPT. Man gibt irgendwas ins System rein und

00:18:08: bekommt dann eine ausgearbeitete, interpretierte Form von dem wieder raus. Also wir sind hier nicht

00:18:12: auf dem visuellen Weg, wo wir Bilder generieren oder Bilder erzeugen lassen. Wir sind hier auch

00:18:16: nicht auf der Chat-Ebene, wo wir irgendwie ein Gespräch mit jemandem führen an und für sich.

00:18:23: Wir sind hier aber auch nicht auf irgendeinem Audio-Track, wo irgendwelche Musik erzeugt wird,

00:18:27: was es auch mittlerweile gibt, sondern wir sind hier auf dem Weg, dass Programmcode erzeugt wird,

00:18:31: nicht mehr und nicht weniger. Und das auch wieder von einem Hersteller, der unter dem

00:18:36: Dach von Microsoft arbeitet. Und da haben wir uns beim letzten Gespräch mit Philipp schon mal

00:18:42: darüber unterhalten, wie wohl die Datenbasis dazu aussieht.

00:18:45: Woher kriegen die diese ganzen Informationen? Woher weiß das System, wie

00:18:49: eine ganz besondere Passage in Code funktioniert? Wenn ich sage, wie du es

00:18:55: gerade erwähnt hast, zeige mir mal eine API für irgendwas, woher nimmt das System

00:18:59: das Wissen? In welcher Sprache, welchen Code, welchen Zweck, welche Analyse

00:19:03: dahinter? Was ist jetzt wirklich das Beste? Was schlage ich demjenigen davor? Wo

00:19:06: kommt das ganze Wissen her? Und da haben wir ja schon die Vermutung

00:19:10: aufgestellt, dass das aus dem Code, der auf GitHub liegt, kommt das Ganze. Und auch da

00:19:17: haben wir natürlich jetzt nicht innerhalb des Codes wie auf einem

00:19:21: Kunstwerk obendrauf fest so eine Unterschrift, die wieder auftauchen kann.

00:19:25: So Copyrights lassen sich, glaube ich, aus Programmcode relativ einfach

00:19:29: rausretuschieren oder einfach, naja, Kommentare einfach weggelassen.

00:19:33: Dann hat man das schon nicht mehr drin. Und dann habe ich jetzt den

00:19:38: Artikel gelesen, wo GitHub selber eingestanden hat oder gesagt hat, naja, also implizit eingestanden

00:19:44: hat, dass es aus all diesen Open Repositories, die verfügbar gestellt werden, also Public

00:19:49: Repositories auf GitHub, werden alle mit einbezogen da rein. Ich glaube, da findet natürlich eine Art

00:19:53: von Bewertung statt, aber die haben eine riesen Datenbasis. Damit haben die das Modell wieder

00:20:00: diese Bäume aufgebaut und haben dann festgestellt, was der beste Weg wohl wäre, weil es die Mehrheit

00:20:04: der Menschen gemacht haben aus Grund XY. Und die haben selber dann implizit das eingestanden,

00:20:10: dass es so ist, indem sie gesagt haben, naja, die Professional-Version für Unternehmen,

00:20:14: also entweder Professional oder Enterprise, glaube ich, heißt das, die sorgen dafür,

00:20:19: dass das, was du eingibst in dem GitHub Copilot, nicht mit reinfließt in die Engine, dass der

00:20:26: Code, auf den zugegriffen wird, vielleicht auch nur unternehmensintern stattfindet,

00:20:29: dass es nicht irgendwie Wald- und Wiesencode von irgendwo anders hinzugezogen wird dafür,

00:20:35: weil da könnte es ja tatsächlich zu Copyright-Problemen kommen. Wenn jetzt ein Unternehmen

00:20:41: hergeht und für ein richtig teures Produkt diese Technologie verwendet und dann hat man

00:20:46: ein Open-Source-Projekt, was unter der Lizenz läuft, dass es nicht für kommerzielle Zecke

00:20:50: verwendet werden kann, dann müsste GitHub-Copilot ja entweder so geaudited sein oder so schlau sein,

00:20:55: zu erkennen, welcher Code, welche Codepassage jetzt wieder erkennbar ist. Das wäre jetzt

00:21:02: ein Negativfall. Oder einfach vorher die Lizenz heraus erkennen aus dem Dokument, wo es dann drin

00:21:07: ist. Gesetzt im Falle, dass es in jedem Code-File oben im Header drinsteht, wer den geschrieben hat

00:21:14: und welche Lizenz das hat. Wir wissen alle, dass das nicht immer der Fall ist. Aber da müsste die

00:21:18: Engine dann schon hingehen können und wirklich eindeutig erkennen können, unter welcher Lizenz

00:21:22: ... diese Codezeilen hier stehen und dann bitte ...

00:21:24: ... nicht eins zu eins das irgendwo vorschlagen.

00:21:26: Haben wir irgendeine komplexe Operation in einem Code ...

00:21:31: ... und das ist vielleicht nur eine von zehn Vorkommnissen ...

00:21:33: ... und jetzt fragt jemand genau danach und die Engine ...

00:21:35: ... geht hin und sagt, naja, ich habe zehn Beispiele ...

00:21:37: ... gefunden, die ähneln sich alle sehr stark, ich habe ...

00:21:39: ... jetzt nochmal mein Wissen darauf angewendet, dann ...

00:21:41: ... wirst du, gehe ich mal schwer von aus, eine von ...

00:21:44: ... diesen Lösungen vorgeschlagen kriegen oder eine ...

00:21:46: ... Kombination daraus vorgeschlagen kriegen, die ...

00:21:48: ... vielleicht auch wiedererkennbar ist. Ist jetzt ...

00:21:49: nur von mir so eine Idee, wie das passieren kann. Es kann natürlich auch im Hintergrund sein,

00:21:55: dass sie sagen, wenn wir da nicht mindestens eine Million Beispiele haben, können wir das

00:21:59: nicht anbieten, weil das nicht ein Learning ist sozusagen. Deswegen verstehe ich auch nicht

00:22:06: wirklich, wie das mit GitHub Copilot funktionieren kann in der Enterprise-Variante, dass sie nur

00:22:09: vorhandene Codebase verwenden können, um dir gleiche Sachen vorzuschlagen. Das werden wir

00:22:14: ... wir wahrscheinlich in Zukunft erst noch sehen, ...

00:22:15: ... welchen Erfolg das ...

00:22:16: ... irgendwie hat, aber ...

00:22:18: ... ich würde da gerne mal wissen, ...

00:22:20: ... also du hast gesagt, du würdest es gerne mal ...

00:22:22: ... ausprobieren und du wolltest es mal verwenden ...

00:22:24: ... für repetitive Arbeiten vielleicht.

00:22:26: Da fällt mir jetzt spontan Refactoring ein.

00:22:28: Das sind ja Sachen, nach denen wir nach Pattern vorgehen.

00:22:31: Das wäre was, glaube ich, was du mal ausprobieren würdest, oder?

00:22:35: Ja, also tatsächlich habe ich da zwei Gedanken zu ...

00:22:40: ... zu der Geschichte.

00:22:42: Also einmal ...

00:22:44: Ich habe ja so ein kleines privates Projekt, wo ich so ein bisschen mit Daten rumhantiere.

00:22:51: Ich scrape mir Daten von Seiten und verarbeite die und packe die in mein Datenbankmodell

00:22:58: und so, um da auf Auswertung fahren zu lassen.

00:23:00: Damit habe ich ein bisschen rumprobiert und habe dabei festgestellt, dass es halt auch

00:23:06: sehr viel adaptiert.

00:23:07: Also GitHub Copilot benutze ich dabei.

00:23:10: Ich habe ausgestellt, dass ich Code, also man kann das in seinem GitHub Account einstellen,

00:23:15: weil man muss sich ja da mit GitHub anmelden und gegebenenfalls auch bezahlen.

00:23:19: Das hatten wir ja letztes Mal schon.

00:23:21: Und dort kann man dann einstellen, ob man Code aus der Public-Code-Basis quasi übernehmen

00:23:27: möchte und ob man seinen Code einspeisen möchte, um das Produkt zu verbessern.

00:23:31: Und das habe ich, meine ich, beides sogar deaktiviert.

00:23:36: Und trotzdem hat es meinen Code adaptiert.

00:23:42: Also ich habe das komplette Datenbank-Modell mit GitHub Copilot zusammen erstellt, habe

00:23:48: meine Code-Basis, ich bin ja in der Datenbank-Entwicklung, das heißt, da ist jetzt bei weitem nicht so

00:23:54: viel Input, sage ich mal, drin wie in JavaScript oder Python oder sowas.

00:23:58: Das heißt, ich habe dann einfach damit gearbeitet, was er sich schon gedacht hat, habe dann meine

00:24:04: Bestandteile, Benennung von Variablen, die Formatierung und so, habe ich dann damit

00:24:11: einfließen lassen und er übernimmt das tatsächlich sehr schnell. Also die Adaption erfolgt sehr schnell.

00:24:16: Und als zweiten Gedanken zu dem Enterprise-Ding mache ich mir da dann tatsächlich auch in Richtung

00:24:25: Refactoring, weil wenn man refactored hat, hat man ja vielleicht eine Code-Basis, die nicht so ideal

00:24:29: Das sehe ich zum Beispiel sehr oft. Also wir haben dann so 20, 25 Jahre alte Anwendungen,

00:24:34: die damals nicht halb so groß gedacht waren, wie das, was jetzt daraus geworden ist. Und dann sieht

00:24:42: der Code halt nicht so ideal aus und man möchte den dann vielleicht umändern auf neue Konzepte,

00:24:47: auf neue Formatvorschläge, auf neue Programmierweisen. Und die Frage, die ich mir dann

00:24:54: stelle ist, wenn ich das zum Beispiel mit GitHub CodePilot zusammen mache, analysiert der dann die

00:24:59: alte Code-Basis und nimmt das dann, so wie er meinen Code ja auch adaptiert hat in meinem

00:25:03: Projekt, nimmt er das dann und gewöhnt sich, sag mal in Anführungszeichen, diese schlechte

00:25:07: Programmierweise an und schlägt mir dann nur in Anführungszeichen wieder schlechte Sachen vor,

00:25:12: obwohl wertend, also es soll gar nicht so wertend sein, aber ihr wisst, was ich meine. Wenn der

00:25:16: Code halt nicht dem entspricht, was ich eigentlich haben möchte, dann definiere ich das gerade als

00:25:20: schlecht. Und das frage ich mich dann zum Beispiel. Also das habe ich jetzt nicht ausprobiert. Ich

00:25:26: Ich habe keine Legacy-Software damit geöffnet, weil wenn, dann habe ich ja meistens eher

00:25:31: Kundenprojekte und ich möchte nicht unbedingt den Kundencode in GitHub-Corp.it einspeisen.

00:25:37: Das mache ich lieber erst mal nur mit meinen Privatprojekten.

00:25:39: Aber das finde ich noch ein sehr interessanter Ansatz oder Ansatzpunkt vielmehr, der da

00:25:45: ja doch sehr spannend auch sein könnte, wie er das jetzt dann adaptiert.

00:25:49: Und ich glaube, Code muss nicht 25 Jahre alt sein, um schlecht zu sein.

00:25:53: Die Gefahr besteht natürlich bei allem, was wir im Netz haben.

00:25:56: Und ob das jetzt, das wäre jetzt die Adaption von dem, was wir eingangs hatten mit dem Chat-GPT.

00:26:03: Es gibt Trolle und es gibt vielleicht in dem Umfeld jetzt unabsichtliche Trolle.

00:26:07: Also ich erinnere mich natürlich an die GitHub-Zeit zurück, wo es nur Public Repositories gab

00:26:11: in den kostenlosen Accounts.

00:26:12: Da hat natürlich jeder, Hintz und Kunz, sein Privatprojekt oder sein Versuch, seine 25.

00:26:18: ... To-Do-Liste, die man so programmiert, ...

00:26:20: ... als Public Repository hochgeladen, ...

00:26:22: ... die natürlich nicht entdeckt wurde, ...

00:26:23: ... nicht gesehen wurde, weil, wieso auch?

00:26:26: Aber da gibt es natürlich jede Menge Schrott ...

00:26:29: ... auch im Netz, bin ich fest von überzeugt.

00:26:31: Und wenn das jetzt nicht der aktive Troll ist, ...

00:26:32: ... der versucht, einen Chat-GPT-Engine ...

00:26:34: ... negativ zu beeinflussen, ...

00:26:35: ... müsste ja auch GitHub da auch entscheiden, ...

00:26:39: ... aus welchen Repositories ...

00:26:40: ... die tatsächlich Wissen rausziehen ...

00:26:42: ... oder diese Erkenntnisse über den guten Code rausziehen.

00:26:45: Weil, wie ich es gerade gesagt habe, ...

00:26:47: jeder, der irgendwie eine Programmiersprache heutzutage lernt, kriegt 25 Tutorials für

00:26:51: To-Do-Listen-Apps, die alle unterschiedlich gut sind. Er programmiert die alle für sich nach,

00:26:56: vielleicht noch etwas schludriger, unorganisiert und vielleicht einfach generell nicht ganz so

00:27:00: optimiert. Das heißt, etwas, was schon nicht so super toll ist als Tutorial, also nicht bis zum

00:27:05: Ende gedacht, nicht produktiv, wie wir es jetzt sagen würden, nicht für ein produktives System

00:27:09: geeignet. Davon gibt es dann ganz, ganz viele, die sich ganz, ganz doll ähneln und die alle

00:27:15: den gleichen Zweck machen und ich würde das Ergebnis von GitHub Copilot mal mit ChatGPT und

00:27:20: Co vergleichen lassen, wenn ich denen sage, die sollen mir eine kleine To-Do-Liste, eine To-Do-Liste-App

00:27:25: zum Beispiel erzeugen. Wie kann ich diese Ergebnisse vergleichen? Eine Engine, die nur auf Textbasis

00:27:30: geht, eine Engine, die nur auf Codebasis geht, eine Engine, die nur auf Wissen zugreift, welches in

00:27:35: Code Repositories, in den eigenen Code Repositories liegt oder eine andere Engine, die ganz viele

00:27:39: Tutorials im Netz und Webseiten durchscrapt. Das wären nochmal so Versuche, die könnten wir

00:27:45: auf jeden Fall mal angehen oder sollte mal jemand angehen, vielleicht einer

00:27:48: unserer fleißigen Hörer kann da mal ein Thema draus machen.

00:27:50: Wie lassen sich die Ergebnisse vergleichen und was könnten da für

00:27:54: Schwierigkeiten noch auf die zukommen? Soll ich mich wirklich jetzt darauf,

00:27:58: außer der entstehenden Faulheit, wenn ich dieses Thema mehr machen lasse,

00:28:02: worauf sollte ich da achten oder was haben wir dazu erwarten in Zukunft?

00:28:06: Das interessiert mich echt. Ich habe noch keines dieser Systeme ernsthaft

00:28:09: ausprobiert. Ich habe JGPT mal verwendet für ein internes Projekt, was

00:28:15: wir im Unternehmen haben, mal beschreiben zu lassen. Und da habe ich wohl die richtigen drei,

00:28:20: vier Keywords in dieser Fragestellung verwendet, um dazu wirklich eine super gut passende

00:28:25: Produktbeschreibung zu finden. Und ich glaube, das Ergebnis habe ich das letzte Mal auch schon

00:28:28: angebracht. Das war meine einzige Versuche in diesem Bereich jetzt. Und während der Feiertage

00:28:34: hatte ich mein Laptop auch mal aufgeklappt und hatte gesehen, dass es da irgendwie wieder ein

00:28:39: weiteres neues Bilderzeugungswerkzeug gab. Ich komme gerade nicht auf den Namen, aber es war

00:28:45: nicht DALI, das ist ja ein Online-System, da kann man nicht darauf zugreifen, also das kriegt man

00:28:49: nicht lokal. Ich habe da eine Software runtergeladen, die sich selber im Anschluss, glaube ich,

00:28:55: irgendwie sieben oder zehn Gigabyte dieses Modell runtergeladen hat. Da konnte ich dann Begriffe

00:29:00: reingeben wie, was habe ich denn gesagt, Mädchen schaukelt auf Wiese, weil meine Tochter gerade

00:29:07: ... da war, da wollte ich das natürlich auch mal zeigen.

00:29:08: "Mädchen schaukelt auf Wiese und ein blauer Vogel ist da."

00:29:12: Sowas in der Art, das auf Englisch ein bisschen ...

00:29:15: ... weniger abstrakt formuliert, wie ich es gerade gesagt habe.

00:29:17: So einfach ein kurzer Satz, wo das beschrieben war.

00:29:20: Weil meine Tochter verlangt von mir und meiner Frau immer, ...

00:29:23: ... dass wir ein Mädchen auf einer Schaukel malen.

00:29:26: Da habe ich mir gedacht, ich mache mir das Leben doch einfacher, ...

00:29:28: ... wie ein Entwickler halt auch denkt.

00:29:29: Und habe das vom System mal generieren lassen.

00:29:32: Und wie lustig das ist, wenn man dann sagt, ...

00:29:35: ... ach ja, die hat noch einen roten Hut auf ...

00:29:36: man ändert das und plötzlich ist das gleiche Bild generiert und die hat einfach einen Hut auf. Und

00:29:40: das habe ich mal ausprobiert. Das Ergebnis dahinter war, ich habe nur kurze Zeit dafür

00:29:43: gehabt, das zu machen, so ein Bild generieren. Das hat, glaube ich, 30 Sekunden gedauert. Lokal

00:29:49: auf so einem M1 Pro Chip war das. Und das Bild hätte man wahrscheinlich noch mit Begrifflichkeiten

00:29:56: wie 3D oder weiß ich nicht, was noch verändern können. Das sah so aus, als hätte es meine

00:30:02: Tochter selber gemalt. Nein, also es war schon ein Bild, wo eine schaukelnde Landschaft und

00:30:08: Mädchen drauf war. Diese Komponenten jetzt wären auch noch glaubwürdig gewesen, aber spätestens

00:30:13: als der blaue Vogel einfach als Aufkleber obendrauf war. Also es war kein echter Vogel,

00:30:17: sondern es war ein Vogel, der war so groß wie die Schaukel. Der ähnelte sehr dem Schüttervogel.

00:30:20: Der war schlecht ausgeschnitten und der war einfach nur draufgeklebt. So, und das liegt

00:30:25: natürlich daran, dass meine Begriffe, die ich da eingegeben habe, nicht präzise genug waren.

00:30:30: Aber als ich das gesehen habe, als ich den Laptop zugeklaut habe, habe ich gesagt, jetzt kann ich in Ruhe Weihnachten feiern,

00:30:35: weil die Technologie überholt mich jetzt nicht in der Zeit, wo ich hier feiere und nicht am Computer sitze.

00:30:41: Da war ich jetzt nicht so begeistert von.

00:30:43: Aber ich glaube, das liegt nur daran, dass man die Ergebnisse online, vor allem von DALI, so feiert,

00:30:48: dass man da so krasse Sachen rausgenerieren kann, dass man sagen kann,

00:30:51: hier, mach mir bitte einen lachenden Hasen mit einem Lutscher in der Hand

00:30:54: und danach gibt man einem das Ganze bitte in 3D und es ist wirklich das gleiche Bild, nur in 3D gerendert irgendwie.

00:31:00: Und dann kann man mit einzelnen Begriffen dieses gleiche Bild noch mal weiter verändern,

00:31:04: wo man dann eindeutig sieht, dass es nicht ein vorhandenes Bild ist, was da bei Google

00:31:07: gefunden wurde, sondern wirklich ein generiertes Bild, was diese Eigenschaften auffasst, die

00:31:11: ich da eingeschrieben habe.

00:31:12: Insofern war das schon ganz interessant und vor allem, weil ich wusste, dass das auf einem

00:31:16: kleinen Laptop funktioniert, was dann einfach in Zukunft vielleicht noch ganz anders aussehen

00:31:22: wird.

00:31:23: Aber da bin ich auf jeden Fall gespannt.

00:31:24: Ja, wir haben vorhin schon über Anbieter gesprochen, die jetzt schon solche Sachen einsetzen. Das ist

00:31:31: auch eine Sache, die wir vermehrt jetzt glaube ich beobachten werden. Und zwar, wir haben natürlich

00:31:36: sowas wie, du hast Lens genannt, das ist bei mir auf die Software von Microsoft, auf die App von

00:31:45: Microsoft nochmal, hat mich da so ein bisschen daran erinnert, was ich vor ein paar Jahren,

00:31:48: das ist glaube ich auch schon fünf Jahre her, wie ich das verwendet habe. Und zwar geht man

00:31:51: dann hin und kann aus irgendeinem Winkel eine Wand fotografieren und dann werden die Informationen

00:31:56: davon aus diesem Bild erstmal perspektivisch angepasst. Das ist jetzt wahrscheinlich

00:32:00: heutzutage kein beeindruckendes Feature mehr, aber ich glaube, auch das passiert anhand von

00:32:06: Modellen, die da berechnet werden. Und anschließend wird natürlich auch diese verzerrte Schrift,

00:32:10: wenn das Handschrift auf so einer Folie zum Beispiel ist an der Wand, mit einem Overhead-Projektor oder

00:32:15: so. Dann wird diese Schrift und das Bild im Generellen perspektivisch so gebracht,

00:32:21: als würde man drauf gucken und danach wird auch noch der Text gelesen, der da drauf ist,

00:32:24: mittels so einer OCR-Technologie. Und das war schon ein Meilenstein für mich,

00:32:29: weil ich dann in der Lage war, Codesnippets von Folien an der Wand nicht nur abzufotografieren,

00:32:34: sondern zu Hause auch einfach in den OCR-Infos dann diesen Sourcecode rauszukopieren und bei

00:32:39: mir einfach mal auszuprobieren, ohne irgendwo nach den Originalfolien von dem Auto zu suchen,

00:32:48: sondern ich konnte den Code von Fotos dann einfach abgreifen. Das Gleiche macht Apple

00:32:51: jetzt auf iPhones auch. Seit, glaube ich, iOS 16 ist es so, dass man da, wenn man Fotos macht,

00:32:56: um das Text draufzuerkennen, so ein kleines Symbol kriegt, wo dann dieser Text freigestellt wird,

00:33:00: oder dass man lange draufdrückt und Text markieren kann von diesem Foto und das rausziehen kann. Oder

00:33:07: Was ich auch häufig verwendet habe, ist, ich habe immer, wenn ich irgendwelche ...

00:33:10: ... Gutscheincodes irgendwie per E-Mail kriege oder so was, dann speichere ich ...

00:33:13: ... mir nicht die E-Mail, sondern ich mache Screenshots von meinem Handy.

00:33:15: Das ist, glaube ich, total steinzeitlich, was ich da mache.

00:33:17: Aber ich mache ein Screenshot davon, dann landet das in meiner Fotomediathek.

00:33:21: Und wenn ich dann hinterher hingehe und brauche einen Gutschein für irgendwas, ...

00:33:25: ... dann tippe ich in das Suchfenster um Gutschein ein.

00:33:27: Oder das iPhone hat gelesen, dass auf diesen Screenshots überall das Wort ...

00:33:31: ... Gutschein herkam. Vielleicht gebe ich noch einen weiteren Begriff dazu ...

00:33:33: ... und dann habe ich quasi ein Screenshot von ...

00:33:37: ... dem Gutschein, den ich mir da entweder ...

00:33:38: ... irgendwo abfotografiert habe, so einen Flyer ...

00:33:40: ... oder vielleicht eine E-Mail, die ich ...

00:33:41: ... gescreenshotted habe oder was auch immer es ist.

00:33:44: Und solche Sachen, die helfen uns tatsächlich weiter ...

00:33:47: ... mit Google Lens, mit ...

00:33:50: ... Lens hieß das Produkt auch von Microsoft, ...

00:33:54: ... was sie dann in ihrer Produktpalette drin hatten ...

00:33:57: ... oder auch TikTok und Discord, das sind ja eher so ...

00:33:59: ... Unterhaltungsmedien, wo diese Sachen angewendet werden.

00:34:02: Ich glaube, schrittweise wird das Ganze adaptiert, wird unser Leben erleichtern oder in dem Fall

00:34:06: vielleicht auch entertainen.

00:34:07: Und irgendwann wird es dann auch vermute ich mal so sein, dass es einfach unser tägliches

00:34:13: Leben in jeder Situation verändern wird.

00:34:15: Ich bin schon gespannt, wenn das System auch für unsere ausgespielte Werbung über Alltag

00:34:19: täglich verwendet wird und anhand von den Sachen, die wir im Laden zu unserem Partner

00:34:23: sagen beim Einkaufen an der Kasse noch Sachen vorgeschlagen werden, die wir noch kaufen

00:34:26: könnten.

00:34:27: Das sind, glaube ich, diese Szenarien.

00:34:29: würde man nochmal nach Orwell ein neues Buch schreiben können. Oder vielleicht einfach per

00:34:35: ChatGPT einen neuen Roman von George Orwell schreiben lassen, einfach über diese Zukunft

00:34:41: von AI. Ja, das fand ich war ein sehr schönes Schlusswort. Also ich kann nur jedem empfehlen,

00:34:50: wenn euch das ein bisschen interessiert, auch gerade was halt so die Entwicklungswerkzeuge

00:34:55: angeht, spricht mal mit Chet GPT, was er für Code generieren würde, schaut euch das mal an oder

00:35:02: probiert ein bisschen GitHub Copilot aus. Ich glaube zwei oder drei Monate, ich bin mir gar nicht mehr

00:35:07: ganz sicher, sind kostenfrei. Die kann man das testen und er adaptiert und lernt wirklich sehr

00:35:12: schnell und jetzt vielleicht nicht den Unternehmenscode damit benutzen oder öffnen, aber ihr wirst schon

00:35:18: einfach mal ein bisschen damit rum scribbeln, ein bisschen rumprobieren, vielleicht eine ganz kleine

00:35:22: App schreiben und einfach mal gucken, wie sich das anfühlt. Und bei GitHub Copilot zum Beispiel kann

00:35:28: ich auch empfehlen, Visual Studio Code gibt es ja diese Erweiterung, diese Plugins, die man sich

00:35:34: installieren kann und darunter ist ja GitHub Copilot selbst auch dabei. Und es gibt aber

00:35:38: noch ein GitHub Copilot Lab und dieses Lab, gerade wenn ihr JavaScript entwickelt oder irgendeine,

00:35:45: weiter verbreitetere Sprache als PL/SQL, also wahrscheinlich fast alles. Wenn ihr damit

00:35:52: programmiert, dann probiert das auch gerne mal aus, weil dort gibt es zum Beispiel auch so Features,

00:35:57: womit sie jetzt drum probieren, wo man zum Beispiel einen Bug fixen lassen kann automatisch

00:36:02: oder wo man seinen Code dokumentieren lassen kann automatisch und das umstrukturieren lassen kann

00:36:08: und umschreiben lassen kann und sogar refactoren oder so. Also ja, gerne ausprobieren. Und wie

00:36:14: wie es am Anfang auch angekündigt war. Wir hoffen, dass wir natürlich im weiteren Verlauf

00:36:19: dieses Jahres vielleicht jemanden hier ans Mikro bekommen, der uns noch ein bisschen mehr

00:36:23: Hintergrundwissen dazu gibt. Da waren sehr viele persönliche Meinungen dabei, sehr viele eigene

00:36:27: Interpretationen und vielleicht auch die ein oder andere Falschinformation, die wir so aufgefasst

00:36:32: haben oder die wir jetzt auch hiermit leider verbreitet haben. Wir hoffen, dass wir mit

00:36:35: einem Spezialisten noch mal darüber sprechen können, der mehr über den Background hat,

00:36:38: der vielleicht auch wirklich technisch mal was dazu erklären kann, was wir da gerade so

00:36:42: abstrahiert haben. Was wir hoffentlich auf jeden Fall geschafft haben, ist euer Interesse mal zu

00:36:47: wecken und die verschiedenen Begriffe und Technologien mal ein bisschen näher zu beleuchten,

00:36:51: wie Caro gerade gesagt hat. Entweder mal ausprobieren, so wie GitHub Copilot oder

00:36:54: ChatGPT oder comma.ai einfach mal nachlesen, Interviews und Videos angucken, wie die denn so

00:36:59: arbeiten. Ich glaube, als Denkanstoß sollte diese Folge oder diese Doppelfolge wirklich dienen. Und

00:37:05: ja, in diesem Sinne bedanke ich mich ganz herzlich bei dir, Caro, für diese tolle,

00:37:09: lange Folge jetzt als Auftakt ins neue Jahr. Und bedanke mich natürlich auch an alle Hörer,

00:37:16: oder bei allen Hörern, die uns auch dieses Jahr wieder treu bleiben und uns direkt in der ersten

00:37:20: Folge hier wieder anhören und hoffentlich auch den Rest des Jahres bei uns bleiben.

00:37:25: Und nochmal, um das Ganze von vorne aufzurollen, wenn ihr eine Person habt oder ein Thema habt,

00:37:36: auch, was euch total interessieren würde, wo ihr gerne vielleicht auch mal einen Deep Dive hören

00:37:41: wollen würdet, dann schreibt das gerne in die Kommentare oder lasst uns einen Kommentar auf

00:37:47: Twitter da oder Mastodon bin ich jetzt auch mittlerweile oder E-Mail. Ihr wisst, wie ihr

00:37:54: uns erreichen könnt. In den Show Notes findet ihr unsere Daten und ja, wir freuen uns von euch zu

00:38:00: hören. Sind wir schon so weit, um ein Hashtag ins Leben zu rufen? Sollen wir sagen #sagsweiter?

00:38:05: weil das ist eigentlich unser Motto, sowohl wenn ihr spannende Themen habt, wie Caro gerade gesagt

00:38:09: hat, aber auch wenn ihr einfach nur die Folge cool findet, teilt sie doch einfach, sprecht darüber.

00:38:13: Es hilft uns immens weiter, ihr müsst noch nicht mehr aktiv dazu beitragen, zu der Folge oder zu

00:38:17: Gästen oder was auch immer. Es reicht uns eigentlich oder es hilft uns schon wirklich

00:38:21: weiter, wenn ihr einfach, ja, Devs on Tape einfach mal, ja, einfach weiterverteilt. Erzählt auch mal

00:38:27: davon, ja, bestellt bei uns Merch, den wir nicht anbieten. Komisch, frag mal nach, was es gibt,

00:38:32: wenn es genügend Fragen kommt. Sagt einfach weiter, spread the word, wie auch immer ihr das

00:38:37: nennen wollt. Teilt es gerne. Wir sprechen natürlich trotzdem gerne zu euch, auch wenn

00:38:41: ihr nur ihr seid. Aber noch lieber sprechen wir natürlich noch zu noch mehr Technik und

00:38:48: Technologieinteressierten hören eigentlich. In diesem Sinne wünschen wir euch alle einen

00:38:54: schönen Start ins Jahr und viel Spaß mit den nächsten Folgen von Devs on Tape. Bis dann.

00:38:59: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.