Dieser Podcast ist eine initiative der Development Community des DOAG e.V.

Devs On Tape x DOAG K+A 2022 - Karin Patenge - Geodaten, Spatial und vieles mehr

Shownotes

DevsOnTape hat auf der DOAG K+A 2022 mit Karin Patenge von Oracle gesprochen und unter Anderem über die Anwendungsfälle von Geodaten und Spatial-Funktionalitäten in der Oracle Datenbank gesprochen. Wirklich spannend, was hinter digitalen Karten steckt und was für eine Arbeit aufgewendet wird, um Karten so detailliert wie möglich anbieten zu können.

Darüber hinaus sprechen wir über Graph-Datenbanken und wie sich solche mit relationalen Datenbanken vergleichen lassen.

Wir haben das Gespräch sehr genossen und wünschen euch ebenso viel Spaß beim zuhören, wie wir bei der Aufnahme hatten!

Für das offizelle DevsOnTape-Nachschlagewerk:

  • Rumrödeln -> Prozessieren und/oder Verarbeiten von Dingen

Karin Patenge auf LinkedIn: Link Devs On Tape auf Twitter: @devsontape Kai Donato - kai.donato@mt-ag.com - Twitter: @_KaiDonato Carolin Hagemann - carolin.hagemann@doag.org - Twitter: @CaroHagi

Dieser Podcast genießt die freundliche Unterstützung der Deutschen Oracle Anwender Gruppe (DOAG e.V - https://doag.org)

Transkript anzeigen

00:00:00: Hallo und herzlich willkommen zu einer neuen Folge von Devs on Tape, wieder von der Door

00:00:05: K&A, nur diesmal leicht angeschlagen, wie man gut hören kann.

00:00:08: Ja, ich wünsche euch viel Spaß mit unserem Gast heute und wir lernen heute was über

00:00:14: Spatial, über Graph und viele weitere interessante Themen.

00:00:17: Viel Spaß.

00:00:18: [Musik]

00:00:31: Genau, der zweite Tag von der DORC-Konferenz wieder mit spannenden Gästen bei uns im Podcast

00:00:36: und natürlich mit vielen spannenden Vorträgen, die man hier besuchen kann.

00:00:40: An der Stelle begrüße ich natürlich mal wieder Caro. Hallo, Caro!

00:00:43: Hallo, Kai!

00:00:44: Ja, und natürlich auch unseren Gast, unsere Gästin.

00:00:48: Ich bin da immer noch nicht so sicher, wie wir das am besten ausdrücken.

00:00:51: Ja, Karin Pattenge ist heute bei uns.

00:00:53: Hallo, Karin.

00:00:54: Ja, schön, dass ich da sein darf.

00:00:56: Guten Morgen.

00:00:57: Gerne, einmal für unsere Rolle.

00:00:58: Und heute ist, glaube ich, schon der dritte Tag der DoA, ne?

00:01:00: Heute ja, wenn man...

00:01:01: Ihr habt so viel gefeiert, wahrscheinlich durchgefeiert.

00:01:04: Nein, also gefeiert haben wir natürlich nicht.

00:01:06: Also der zweite reguläre Vortragstag und der dritte Tag,

00:01:10: wenn man am Anfang den Thementag noch mit dazu rechnet.

00:01:13: Ich muss da jetzt äußerst korrekt sein,

00:01:15: damit ich da beweisen kann, dass ich natürlich auch weiß,

00:01:17: was wir hier gemacht haben.

00:01:18: Nein, es gab ja den Thementag,

00:01:20: da konnte man sich separat auch nochmal für anmelden,

00:01:22: dann zwei Tage den regulären Konferenzbetrieb

00:01:25: und dann noch den Schulungstag danach.

00:01:27: So ist es richtig, zweiter regulärer Tag.

00:01:29: Ja, ähm, Karin,

00:01:31: jetzt hast du natürlich schon mal direkt hier mich korrigiert.

00:01:33: Super, super, super Einstieg.

00:01:36: Stell dich doch gerne mal vor für unsere Hörer,

00:01:38: die dich noch nicht kennen.

00:01:40: Ja, das werden wahrscheinlich fast alle sein,

00:01:42: die mich noch nicht kennen.

00:01:43: Karin Pattenge, ganz einfach ausgeschrieben,

00:01:45: Patengeschenk ohne Schenken,

00:01:47: weil immer wieder mal Leute fragen.

00:01:50: Aber ja, ich arbeite bei Oracle seit 2007.

00:01:54: Also ich habe jetzt mein 15-jähriges Jubiläum schon gehabt.

00:01:57: Ich wusste nicht, dass Zeit so schnell dahin gehen kann,

00:01:59: aber es ist passiert.

00:02:01: Und mal gucken, wie lange Oracle noch mit mir arbeiten möchte.

00:02:06: Aber ich denke, das wird schon noch eine ganze Weile sein,

00:02:09: so wie ich bisher das Feedback bekommen habe.

00:02:11: Ich bin momentan Product Managerin im Datenbankbereich und wir haben eine Nische, die wir seit vielen

00:02:19: Jahren besetzen und da geht es um das Management von Geodaten und die zweite Nische ist das

00:02:27: Thema Grafdatenbanken, Grafanalysen und mit diesen beiden Themen bin ich eigentlich über

00:02:33: die letzten 15 Jahre bei Oracle ganz viel bei Kunden unterwegs gewesen, nicht nur Kunden

00:02:39: Deutschland, sondern auch teilweise Europa- oder weltweit Kunden. Und deswegen war das jetzt ein

00:02:46: logischer Schritt für mich, ins Product Management zu gehen, als jetzt endlich mal nach vielen Jahren

00:02:50: eine Stelle frei gewonnen wurde. Ja, und da bin ich jetzt seit Anfang des Jahres. Aber vorher habe

00:02:57: ich halt ganz viel in der technischen Beratung gemacht, eigentlich fast durchgängig, seit ich

00:03:01: bei Oracle bin und bin dahin geblieben, weil es einfach super spannende Themen sind. Ich muss

00:03:09: eigentlich ständig was Neues lernen. Das ist auch der Grund, warum ich noch da bin. Sonst hätte ich

00:03:14: mich wahrscheinlich schon verändert, aber immer dann, wenn es genug zu lernen gibt,

00:03:19: wenn die Herausforderungen jeden Tag irgendwie neu sind, dann bleibt man auch dabei. Also

00:03:24: Jedenfalls bin ich der Typ dafür.

00:03:26: Kann ich verstehen.

00:03:28: Und wie bist du zu dem Thema gekommen?

00:03:32: Spatial, Graph,

00:03:34: habe ich zum Beispiel noch keinen Kontakt groß mit gehabt.

00:03:38: Früher habe ich mal gesagt,

00:03:40: ich bin wie die Jungfrau zum Kind zu dem Thema gekommen,

00:03:42: aber das ist nicht ganz so.

00:03:44: Ich habe 2007 bei Oracle angefangen,

00:03:46: damals bei Oracle Direct in Potsdam.

00:03:50: Potsdam und wir hatten Kunden, die sozusagen nicht auf einer bestimmten Branche spezialisiert waren

00:03:58: oder aus einer bestimmten Branche kamen, sondern wir haben Kunden betreut über alle Branchen hinweg

00:04:03: in ganz Deutschland und auf einmal kam da so ein Kunde daher, der Satelliten ins Feld

00:04:10: geschossen hat und Fragen zu Geodaten hatte und damit kannte sich niemand aus in dem Team und

00:04:18: dann habe ich gesagt, ich mache das. Völlig ohne Ahnung, aber ich dachte, okay, irgendwie muss man

00:04:26: lernen und man muss Mut zur Lücke haben und deswegen habe ich dann einfach erstmal angehört,

00:04:32: was die für Themen haben, was sie für Herausforderungen haben und dann habe ich

00:04:37: mich halt da reingegraben. Und das Reingraben fällt heute noch an, weil jeder Kunde ist ein

00:04:43: bisschen anders. Jeder Kunde hat neue Herausforderungen und ja, und dann entwickelt sich halt so ein Thema

00:04:50: und dann möchte man immer mehr wissen. Und das habe ich halt über die Jahre hinweg gemacht und

00:04:55: sogar dann dahingehend erweitert. Da ist gesagt, okay, jetzt möchte ich vom Hintergrund aber noch

00:05:02: mal ein bisschen mehr verstehen, also von den Fundamenten, was bedeutet eigentlich Geodaten,

00:05:08: Wie ist das aufgebaut? Wo kommen die her? Was mache ich damit? Sodass ich dann im Prinzip

00:05:16: mich entschieden hatte, zwischendurch auf diesem Weg bis heute dann auch nochmal ein Zusatzstudium

00:05:21: zu machen. Und es gibt auch die Möglichkeit, das im Fernstudium zu machen, unter anderem an der

00:05:25: Uni Salzburg. Und da habe ich dann Geoinformatik nochmal zu meinem eigentlichen Informatikstudium,

00:05:32: was viele Jahre zurückliegt, nochmal aufgesattelt. Und das hat mir wirklich auch sehr viel gebracht.

00:05:37: Und davon kann ich natürlich zehren, aber es ist nicht das, worauf ich mich ausruhen kann.

00:05:43: Das klingt echt nach einem sehr spannenden Umfeld, um ein neues Thema zu erarbeiten,

00:05:48: dass es ein Kunde ist, der einfach Raketen ins All schießt. Also, finde ich sehr, sehr spannend.

00:05:53: Satellitenwärts.

00:05:54: Ja, aber irgendwie müssen die ja hochkommen. Ich glaube, als Raketenwärter wird das am

00:05:58: einfachsten gelingen. Ne, sehr spannendes Thema. Ich gucke jetzt gerade bei uns in

00:06:03: unseren Aufzeichnungen, da sehe ich auch einen Vortrag, den du auf der DOAG hier halten wirst

00:06:08: heute. Worum geht es denn da? Da geht es im Prinzip auch so darum, ein paar Grundlagen,

00:06:13: ein paar allgemeine, ein bisschen Allgemeines Wissen darum, wie Geodaten in der Oracle-Datenbank

00:06:18: aussehen zu vermitteln. Wie kriege ich die da rein? Wie sehen sie aus? Was kann ich dann

00:06:24: eigentlich damit machen? Typischerweise sind ja die Daten erstmal, werden die so aufbereitet,

00:06:31: dass ich es mir auf einer Karte anschauen kann. Also das Visuelle spielt ja bei Geodaten eine

00:06:36: ganz große Rolle, weil ich bin jemand, die ist mit Atlanten groß geworden. Ich bin jemand,

00:06:43: die immer schon gern Geografie gemacht hat, die sich für die physische Welt interessiert hat.

00:06:51: Und ja, deswegen sind Orte auf dieser Welt für mich immer ganz spannend gewesen. Wo liegen die,

00:06:58: in welchem Zusammenhang sind die mit anderen Orten auf dieser Welt? Wie lange brauche ich von A nach

00:07:04: B? Wo fahre ich dann lang? Das sind alles so die Fragen, die man mit Geodaten ja beantworten

00:07:10: möchte. Und das ist ja mittlerweile so in unser tägliches Leben eingedrungen. Und ja,

00:07:19: ich glaube, es gibt kaum welche, die nicht irgendwo Geodaten in irgendeiner Form auch

00:07:25: in ihrem täglichen Leben benutzen. Und sei es nur, dass ich gucke, wie komme ich jetzt

00:07:30: vom Hotel zur U-Bahn, die mich hier nach Messe, zur Nürnbergmesse bringt, um dann pünktlich

00:07:39: zu meinem Vortrag zu kommen. Oder zu einem Podcast.

00:07:42: Oder zu einem Podcast, genau. Was würdest du sagen,

00:07:45: ist in der Vergangenheit ein spannendes Projekt gewesen, was diese Geodaten umfasst?

00:07:50: Also Satelliten in Raketen ins All schießen klingt für mich jetzt schon ziemlich nach dem Maximum,

00:08:00: aber vielleicht gibt es da noch irgendeinen besonderen Fall, wo du sagst, das ist was

00:08:04: ganz Besonderes gewesen. Ja, ich glaube, die Projekte, wo es dann darum geht, wirklich so

00:08:10: unsere Umwelt realitätsnah abzubilden, also wie so ein Digital Twin von unserer Umwelt zu machen.

00:08:21: Das sind so Projekte, die, glaube ich, sehr herausfordernd sind, weil es dann immer darum

00:08:28: geht, mit ganz vielen Daten zu arbeiten. Und da ist dann vorher die Herausforderung,

00:08:33: Wie komme ich eigentlich an diese Daten?

00:08:35: Wie kriege ich die zeitnah in einen Verarbeitungsprozess rein?

00:08:41: Und ja, was kann ich dann eigentlich damit tun?

00:08:45: Das geht halt erst mal darum, abzubilden, wie sieht denn diese Umwelt auch aus?

00:08:52: Diesen Digital Twin erlebbar zu machen, aber dann den auch aktiv zu nutzen.

00:08:58: Sei es, dass man so ein Urban City Modell irgendwie erstellt und daraus dann ableitet,

00:09:08: was muss ich denn eigentlich tun, um so eine Stadt dahingehend zu entwickeln, dass sie

00:09:13: ja nachhaltig mit Verkehrskonzepten umgeht, mit Energiekonzepten, mit ja, was biete ich denn

00:09:25: die Menschen, die in meiner Stadt wohnen, an Möglichkeiten, hier sich wohl zu fühlen,

00:09:30: die Stadt erlebbar zu machen, ja auch selber beizutragen, so eine Stadt weiterzuentwickeln.

00:09:37: Das sind so, glaube ich, Projekte, die werden uns in den nächsten Jahren noch ganz viel

00:09:41: beschäftigen und da bin ich auch mal ganz gespannt, was da so alles kommt und wo wir

00:09:48: auch involviert sein werden. Ja. Okay. Für mich, also ich finde das super spannend,

00:09:59: was du da eben gerade zum Beispiel mit diesem Modell erzählt hast und ich kann mir ungefähr

00:10:03: vorstellen, wie man das Ganze vielleicht verarbeitet, aber ich frage mich gerade,

00:10:07: wie bildet man das dann quasi unter der Haube ab? Also für mich, im Kopf habe ich immer die

00:10:13: Google Map, wahrscheinlich das einfachstmögliche Modell, wo ich zwei Punkte habe, die ich miteinander

00:10:19: verbinde und okay, das ist dann vielleicht nicht mehr so einfach, die Route zu finden. Aber wie

00:10:24: würde man sowas dann abbilden? Hätte man dann ganz, ganz viele einzelne Punkte, die man dann

00:10:29: irgendwie zusammensetzt, wie so ein Polygon, glaube ich, heißt das, so ein Modell quasi? Oder wie

00:10:36: kann ich mir das ungefähr vorstellen? Also es gibt ja ganz einfache Abbildungen von der Umwelt.

00:10:43: wenn ich jetzt im zweidimensionalen Bereich bin, wenn ich, also das, was ich auf Landkarten erst

00:10:48: mal so darstellen kann, ist ja immer in die Ebene projiziert. Und da habe ich ganz einfache

00:10:54: Geometrien, da habe ich Punkte, da habe ich Linien, da habe ich Polygone, da habe ich

00:10:58: Zusammensetzungen aus diesen Grundelementen, die ich dann abbilden kann. Und dann nehme ich

00:11:04: typischerweise die dritte Dimension noch mit dazu, das heißt, ich gehe in die Höhe und daraus kann

00:11:09: ich dann halt wirklich Objekte, die greifbar sind, letztendlich konstruieren. Und in diesem

00:11:18: dreidimensionalen Bereich gibt es dann halt nicht nur das, was ich so mithilfe von Vektoren darstellen

00:11:24: kann, sondern das, was du eben auch angesprochen hast, war schon genau die richtige Idee, nämlich

00:11:30: mit Punkten ein Objekt zu beschreiben, indem ich halt die äußeren Umrisse des Objektes,

00:11:37: darauf die Punkte projiziere und das dann visuell erlebbar, darstellbar und dann auch erlebbar

00:11:46: macht. Also das ist ja typischerweise das, wo dann so die Fahrzeuge, die man sieht, die rumfahren,

00:11:53: die haben zwei Möglichkeiten, nämlich mit sogenannten Liders zu arbeiten, wo sie dann

00:11:58: die Objekte abscannen und aus der Tiefe, wie die sozusagen wieder projiziert werden, zurück

00:12:05: projiziert werden, kann man dann dieses räumliche Modell erstellen, weil die Punkte unterschiedlich

00:12:10: reflektiert werden. Und dann ergibt sich daraus ein Dreidimensionales. Und dann gibt es auch noch

00:12:15: die Möglichkeiten, mit Bildern dreidimensionale Objekte auch zu erstellen. Also das sind so die

00:12:25: Techniken, die in dem Umfeld da zum Einsatz kommen und aus denen man dann im Prinzip, ja,

00:12:32: die so ein digitales Modell dessen, was man da hat abgescannt oder abfotografiert hat,

00:12:40: erstellen kann. Also Spatial, das kannte ich tatsächlich bisher nur aus meiner Apex-Brille,

00:12:47: sag ich mal. Der Carsten Scharsky, der ist ja immer ganz viel mit den …

00:12:50: Ja, der Carsten ist … Carsten ist unsere Allzweckmachzine.

00:12:53: Mit so Karten und so da ist halt ganz viel mit Google Maps und, ich sag mal, so Geo-Geschichten,

00:13:01: die klassische Longitude, Latitude oder wie es heißt. Aber das, was du beschreibst, ist ja dann

00:13:07: nicht auf eine Position, sage ich mal, beschränkt, sondern das ist tatsächlich einfach in einem,

00:13:14: ich sag mal, gesetzten räumlichen Rahmen, dass diese Punkte dort definiert werden und dass das

00:13:23: eigentlich gar nicht nur was mit Geodaten zu tun hat, sondern auch was mit dem Raum,

00:13:28: den man dann definiert. Genau, genau. Also für diese Objekte, die ich separat betrachten möchte,

00:13:34: kann ich mir wie so ein lokales Koordinatensystem vorstellen. Ich definiere irgendwo den Nullpunkt,

00:13:40: den Ursprung und hab dann meine Dimension, die ich da entsprechend aufziehe und das Objekt,

00:13:45: was ich da rein platziere. Wenn man das dann in den großen Kontext bringt, wo ich dann wirklich

00:13:52: räumlichen Bezug zu einem Punkt dieser Erde mache, dann weiß ich, wo dieses Objekt verortet ist.

00:14:00: Aber erst mal kann ich es auch separat betrachten, indem ich halt nur so ein lokales Koordinatensystem

00:14:05: aufschwärme. Siehst du, Carol, da haben wir schon was gelernt. Also für mich war tatsächlich

00:14:09: Spatial-Geodaten auch total einfach damit verknüpft. Ja, genau. Na ja, mit Landkarte,

00:14:14: und dann gucke ich mal, wie ich da so von A nach B komme, und da sind Straßen und da sind so viele

00:14:18: Höhenmeter. Ich habe das echt auch gar nicht in Bezug damit gesetzt, dass man die dritte Dimension

00:14:23: noch mit rein nimmt. Das war das erste Aha für mich jetzt, dass man sagt, naja, wir haben schon

00:14:28: Flächenentfernungen auf einer Karte, aber in dem Moment, wo man die dritte Dimension mit rein nimmt,

00:14:34: das können ja auch im Gebirge sein, sag ich jetzt mal, wo die Höhenunterschiede so da sind,

00:14:37: aber jetzt stelle ich mir so eine Apple Maps oder so eine Google Maps vor, wo nicht direkt nur dieses

00:14:42: 3D-View ist, wo die Fotos zu sehen sind, dass man sich im Kreis drehen kann, sondern die haben wir

00:14:47: jetzt auch mittlerweile in diesen, naja, normalerweise 2D-Karten, die gezeichnet sind,

00:14:53: auch die Formen von den Gebäuden als Objekte mit reingezeichnet. Und das hat mich dann auch schon

00:14:58: immer interessiert, woher haben die denn jetzt diese Informationen? Weil die haben wirklich die

00:15:02: Formen des Hauses. Und das ist sogar bei mir nördlich von Hamburg in einem kleinen Dorf,

00:15:07: nenne ich es jetzt mal, selbst da haben die relativ akkurat das abgescannt. Und das können

00:15:12: die mit diesen Autos nur von vorne gemacht haben. Also die müssen wahrscheinlich noch

00:15:16: Satellitenbilder gehabt haben oder irgendwelche anderen Daten, habe ich aber nie mit Spatial

00:15:20: oder mit Geodaten in Oracle Datamining in Verbindung gesetzt.

00:15:23: Der Punkt ist ja, wenn wir über Spatial sprechen, manche sprechen es ja gar nicht richtig aus,

00:15:29: sondern klingt das irgendwie wie Special. Aber ich glaube, das ist einfacher,

00:15:34: dann an der Stelle zu sagen, wir reden über Geodaten. Wobei Geodaten dann wiederum ja

00:15:39: impliziert, dass man diesen räumlichen Bezug hat zur Erde. Und ich hatte ja gerade eben gesagt,

00:15:45: der muss nicht unbedingt gegeben sein, aber ja, am Ende landen wir dann doch auch bei diesem

00:15:53: Rückbezug, wo befindet sich das Ganze eigentlich. Und ich glaube, also nicht nur ich glaube,

00:15:58: sondern mit der dritten Dimension hört es ja dann auch typischerweise nicht auf,

00:16:02: sondern ich kann ja dann in die vierte Dimension auch noch gehen, wo die zeitliche Komponente

00:16:07: dazukommt oder wo ich mögliche andere Messwerte noch mit an das ganze Objekt dranhängen kann.

00:16:16: Also da geht's dann auch hin, wenn ich dann das Ganze noch bewegt darstellen möchte,

00:16:24: wo ich auf der Zeitachse mich von einem Ort zum anderen bewege und an den unterschiedlichen

00:16:29: Zeitpunkten dann auch an unterschiedlichen Orten bin. Das möchte ich ja dann auch noch abbilden

00:16:33: Und das ist natürlich auch ein großes Thema an der Stelle. Aber ich will nochmal zurückkommen

00:16:38: auf diese Frage zu dem 3D, wie wird das überhaupt gebildet oder woher kommt das,

00:16:47: dass ich auf so einer Karte dann im Prinzip die Gebäude dann auch so sehen kann, relativ

00:16:54: realistisch wie sie auch wirklich aussehen. Da gibt es unterschiedliche Möglichkeiten. Zum

00:16:59: Zum einen, wenn ich natürlich diese Lidar-Scans habe von Gebäuden, die mir die Umrisse abbilden

00:17:07: und daraus dann die entsprechenden Geometrien erstellen kann und die dann als dreidimensionale

00:17:14: Objekte auf eine Karte bringen.

00:17:16: Die einfachste Form ist aber, dass ich mir im Prinzip ein Grundriss nehme vom Gebäude

00:17:22: und ich habe dann zusätzlich eine Höheninformation und dann wird das Ganze im Prinzip von der

00:17:29: Fläche in die Höhe gezogen und im Prinzip habe ich dann ein Rechteck typischerweise bei Gebäuden

00:17:37: oder ich gehe dann noch ein Stück weiter, wenn ich etwas höheres Level an Detaillierung haben

00:17:46: möchte, dann mache ich noch die Dachform entsprechend, wie sie in der Realität vorkommt.

00:17:51: Und dann der nächste Schritt wäre, mit Hilfe von Fotos, die man hat, wie zum Beispiel die

00:17:59: Fassaden gestaltet sind, dass das dann noch auf die entsprechenden Bereiche einer Geometrie

00:18:06: projiziert werden. Also so arbeitet man sich vor. Schritt für Schritt wird der Detaillierungsgrad

00:18:12: für so ein dreidimensionales Objekt immer größer und die entsprechenden Daten, die man dafür braucht,

00:18:20: die ja da sind wir mittlerweile so weit, dass die vielfach ja erhoben werden und dann auch

00:18:28: zur Verfügung stehen, um das entsprechend auch ja möglichst realitätsnah auf eine Karte zu

00:18:34: bringen oder wo auch immer man sich das ganze dann anguckt auf irgendeiner Brille, die dann

00:18:39: vor meinem Augen ist und ich brauche gar nicht mehr durch, nicht durch Nürnberg zu bewegen,

00:18:44: sondern gehe dann einfach nur, setze mich unter eine Brille und erlebt das.

00:18:48: Also wäre das gar kein so fiktives Szenario, wenn man jetzt so ein Google-Auto sieht, dass das durch eine Straße fährt, vorne die Häuser scannt, einschätzt, wann die gebaut worden sind, in etwa von dem Baustil, Rückschlüsse auf ein Dach, was zu der Zeit häufig verwendet oder gebaut wurde, zieht, dann schätzt anhand der Bauweise, wie das Haus wohl nach hinten weitergeht, dass da immer, also das ist jetzt ein Zukunftsszenario.

00:19:12: Ich stelle mir nicht vor, dass tatsächlich solche Metadaten jetzt noch mit dazugezogen

00:19:16: werden bei so einer Schätzung, wie ein Haus aussieht.

00:19:18: Aber dass je mehr Daten zur Verfügung stehen für dieses Bauen dieser Objekte, dass das

00:19:23: in Zukunft auch genutzt wird.

00:19:25: Dass man dann noch viel mehr Sachen auch ermitteln könnte anhand der Informationen, die man hat.

00:19:30: >> DOREEN SIEGFRIED: Ja, also diese Fahrzeuge mit den Scannern und, ja, ich sage jetzt mal

00:19:38: Fotoapparaten im Eifersohnraum drauf. Die sind ja schon bodengestützt. Da kann ich im Prinzip nur

00:19:48: das, was ich umfahren kann, entsprechend auch an Daten erheben. Was aber dazu kommt und wo man

00:19:56: dann solche Daten herhat, um wirklich Gebäude in ihren Umrissen noch viel besser zu erfahren,

00:20:02: Daten, die durch Befliegung erhoben werden. Das heißt, die Vermessungsverwaltung der einzelnen

00:20:16: Bundesländer, die haben typischerweise Flugkampagnen, wo sie dann das gesamte Gebiet

00:20:22: eines Bundeslandes überfliegen, typischerweise alle zwei oder alle drei Jahre. Und die sind

00:20:32: mittlerweile so genau, dass sie auch wirklich von der Grundfläche in einem relativ detaillierten

00:20:39: Maßstab dann auch die Gebäude und ja, die Pflanzung dann auch entsprechend ja an Daten

00:20:50: erheben können und daraus werden dann auch typischerweise diese 3D-Stadtmodelle dann

00:20:56: mit konstruiert. Also es fließen Daten aus unterschiedlichsten Quellen zusammen und das

00:21:02: Bild, was sich dann daraus ergibt, ja, ist halt das, was wir zum Großteil jetzt schon

00:21:09: auf Google Maps auch sehen. Also ich habe gerade noch sehr viel in meinem Kopf gerattert,

00:21:15: das gerade sehr viel, wo du das erzählst mit den Möglichkeiten und wie ich mir das vorstellen kann,

00:21:20: wie man dann, weil wir haben ja einmal den Teil der Erhebung der Daten und dass wir die Daten

00:21:25: überhaupt irgendwo abspeichern, was ja schon sehr wichtig ist und dann muss man ja auch

00:21:29: irgendwas damit machen und ich stelle mir gerade vor und also vielleicht kannst du sagen, ob ich

00:21:33: da auf der richtigen Ebene unterwegs bin oder ob das eigentlich gar nichts damit zu tun hat,

00:21:38: dass man diese Informationen ebenfalls auch zum Beispiel fürs autonome Fahren benutzen kann,

00:21:43: dass dann dort die Kameras quasi die Umgebung abscannen, diese Daten dann irgendwie abspeichern

00:21:50: und darauf dann quasi genau diese Auswertungen laufen, die man dann darauf machen kann und dann

00:21:56: das quasi entscheidet, wie es fährt oder so. Ja, da kommt ja ganz viel zusammen bei dem

00:22:01: autonomen Fahren. Aber ganz wichtig sind halt diese Sensoren, die unterschiedlichen Sensoren,

00:22:06: die in den Fahrzeugen verbaut sind, die halt wirklich in Echtzeit die Straßenzustände

00:22:11: aufnehmen. Ich kann zwar ein Gerüst an Grunddaten zur Verfügung haben, die erstmal sagt, okay,

00:22:20: das sind meine Straßen, die verlaufen so und so, das sind die Abbiegevorschriften,

00:22:27: die für diese Straße gelten, aber das muss ich ja dann mischen mit dem, was die aktuelle

00:22:34: Verkehrssituation ist. Da ist vielleicht ein Verkehrszeichen umgefahren, weil gerade wieder

00:22:40: ein Sturm war oder ein Baum ist auf die Straße gefallen, dann ist die Straße blockiert, obwohl

00:22:45: sie eigentlich eine freie Durchfahrt ermöglichen müsste. Das kann ich dann, diesen aktuellen

00:22:53: Verkehrszustand und die Straßensituation, dafür brauche ich natürlich diese ganze Sensorik,

00:22:59: die an den Fahrzeugen ist, die die Umgebung scannen, die die Abstände messen innerhalb

00:23:07: der Fahrspuren und zu den Rändern bzw. zu den Vorausfahrenden oder die dann die Verkehrszeichen

00:23:19: scannen, ob da jetzt immer noch 60 steht oder ob da auf einmal runtergesetzt wurde auf 30 und

00:23:25: darauf muss dann entsprechend reagiert werden und das ja da kommt ganz viel zusammen, was dann

00:23:33: wirklich in Echtzeit auch verarbeitet werden muss, damit so ein autonomes Fahren am Ende

00:23:37: wirklich auch sicher wird. Eine letzte Frage hätte ich noch. Kannst du gerne noch deine

00:23:44: Fragen loswerden, Kai? Für mich ist das nämlich gerade so ein mind-blown-Ding, weil ich damit

00:23:50: noch nie irgendwie drüber nachgedacht habe, wie man die Daten eigentlich ablegt. Also ich habe

00:23:54: mich schon gefragt, wie man die ganzen Daten ablegt, die dann zum Beispiel eben bei dem

00:23:58: autonom fahren zusammenkommen aber die letzte frage die ich noch hätte wenn ich jetzt diese

00:24:03: ganzen daten habe muss ich ja irgendwas damit machen den anwendungsfall den hatten wir gerade

00:24:07: wie würde ich das denn also was für eine technik bräuchte ich um um diese daten verarbeiten zu

00:24:14: können also irgendwie das so gar nicht in meinem kontext quasi drin ich weiß in deinem vortrag

00:24:19: erzählt zum beispiel auch was über pfeifen kann man dann mit pfeifen seine ganzen daten rausziehen

00:24:26: und dann rüdelt man die irgendwie durch und dann passiert was?

00:24:28: Also mit Python kann man Daten rausziehen, die auch durchrüdeln, analysieren, verarbeiten.

00:24:35: Python wäre jetzt nicht unbedingt der Ansatz für mich, um in Echtzeit Daten zu verarbeiten,

00:24:44: weil die Datenmengen typischerweise viel zu groß sind und die Verarbeitung in Python,

00:24:50: zumindest nach dem, was ich so bisher erfahren habe, dafür zu langsam ist.

00:24:55: Also das mache ich dann anders. Aber typischerweise habe ich ja dann so eine Prozessierungsflüsse,

00:25:01: wo ganz unterschiedliche Techniken zum Einsatz kommen. Also ich muss einmal Streaming-Daten

00:25:10: aufnehmen und verarbeiten, vielleicht auch schon vorfiltern, was sind Informationen,

00:25:15: die eigentlich nicht weiter relevant sind, die ich vorher rausfiltern kann, was muss ich dann

00:25:22: weitergeben oder was weist auf ein bestimmtes Ereignis hin, auf das ich dann reagieren muss.

00:25:28: Also dieses ganze eventbasierte Verarbeiten spielt dann mit eine Rolle und dann brauche

00:25:34: ich natürlich auch analytisch bestimmte Mittel, um dann ja die Dinge weiter zu verarbeiten. Also

00:25:44: wenn jetzt zum Beispiel wirklich ein Baum den Weg blockiert, dass dann wirklich das Objekt als ein

00:25:53: Hindernis erkannt wird und darauf entsprechend reagiert wird, indem das Auto halt wirklich auch

00:25:59: abnimmt. Also ich finde, neben unserem Guide für Social Media Geschichten, wie man das

00:26:06: bereiten kann, sollten wir noch einen großen Devs on Tape Katalog für Fachtermini machen. Das erste,

00:26:11: Was drinsteht, ist Durchrödeln.

00:26:13: Das finde ich, das trifft auch ziemlich viele Dinge zu.

00:26:16: Das sollte man vielleicht direkt mit auch in die Schaunots aufnehmen, was es denn drinnen ist.

00:26:19: Ja, das ist jetzt sehr unspezifisch, glaube ich.

00:26:23: Ja, aber gut, das kann man ja auch so definieren,

00:26:25: dass es grundsätzlich das Durcharbeiten und Prozessieren von irgendwas sein kann.

00:26:30: Naja, das wollte ich nur nochmal festhalten.

00:26:32: Jetzt, fällt das jetzt in den Bereich räumliche Analysen?

00:26:36: Das fällt in den Bereich räumliche Analysen mit rein.

00:26:39: mit rein. Wunderbar, dann haben wir ja sogar den Punkt auf unserer Liste schon abgearbeitet. Das

00:26:44: ist immer der Fall, dass wir natürlich unsere Gäste einladen zu unserem Podcast, damit die

00:26:49: was uns über die Technologie erzählen, wo wir selber nicht zu viel beisteuern können. Jetzt

00:26:53: können wir hier Begriffe in den Raum werfen, können dich da mal drüber erzählen lassen. Also

00:26:59: wir haben jetzt noch nicht so konkret definiert oder besprochen, was Graph-Datenbanken sind und

00:27:06: was die mit GraphQL zu tun haben und was die nicht mit GraphQL zu tun haben. Vielleicht kannst du

00:27:12: uns da nochmal so aufschlauen, damit wir das nächste Mal, wenn uns jemand fragt, was das denn

00:27:16: ist, wie sich das denn aufbaut, dass wir da genauso schlau antworten können. Das wäre super.

00:27:21: >> DOREEN SIEGFRIED: Okay. Also ich hatte ja eingangs gesagt, ich bin für das Thema Geodaten

00:27:27: verantwortlich. Und dann habe ich auch noch diese etwas andere Nische, Grav-Technologien,

00:27:34: Grafdatenbank, Grafalgorithmen. Was meinen wir damit? Vielleicht versuche ich mal den Bogen zu

00:27:44: schlagen von dem Geodatenbereich in den Grafbereich. Wir waren ja eben bei den Straßen und ich hatte

00:27:52: gesagt, die Straßen, das ist so eine Information über das Straßennetz mit den entsprechenden

00:28:00: Kreuzungen und den Einrichtungen an den Straßen. Das ist so eine Grundlage für die Analyse von

00:28:08: zum Beispiel im Bereich autonomen Fahren. Und dieses Straßennetz, das kann ich abbilden als

00:28:18: in einem Knoten- und Kantenmodell. Das heißt, die Segmente der Straßen, die von einer Kreuzung A zu

00:28:25: einer anderen Kreuzung B führen, sind eine Kante, die die beiden Kreuzungen verbinden und diese

00:28:31: beiden Kreuzungen sind dann die Knotenpunkte. Und dieses Knoten- und Kantenmodell, was ich in diesem

00:28:39: räumlichen Kontext habe, das kann ich auch aus dem räumlichen Kontext herausnehmen und als ganz

00:28:43: allgemeines Datenmodell formulieren und das im Prinzip als Basis nehmen, um Informationszusammenhänge

00:28:53: darzustellen. Das heißt, ich kann definieren, dass zum Beispiel eine Person mit einer Person A mit

00:29:06: einer Person B zusammenhängt, dadurch, dass die Geschwister sind. Oder ich als Person kann einen

00:29:16: Zusammenhang herstellen zur Doha-Konferenz, indem ich halt sage, Karin hält einen Vortrag

00:29:22: auf der Doha-Konferenz, dann ist die Doha-Konferenz eine Informationseinheit, die Person Karin ist eine

00:29:28: Informationseinheit und der Zusammenhang ergibt sich aus dem Vortrag, den ich hier halte. Und das

00:29:35: kann ich natürlich dann in jede beliebige Richtung weiterentwickeln. Ich kann mir zusätzliche

00:29:41: Informationseinheiten mit herannehmen, an die ich vorher nicht gedacht habe und dann die

00:29:48: jeweiligen Zusammenhänge neu konstruieren. Und wenn man das halt weiter spinnt, dann spanne ich

00:29:54: einen riesigen Raum auf, wo Informationszusammenhänge einfach nur dadurch dargestellt werden, dass ich

00:30:01: jeweils neue Punkte definiere und diese Punkte mit Kanten verbinde, die irgendeinen Bezug zwischen

00:30:08: diesen beiden Punkten definieren. Und dieses Knoten- und Kantenmodell ist also ein sehr

00:30:14: flexibles Modell, um Daten abzubilden oder in dem Fall den besonderen Bezug auf diese

00:30:23: Relation oder diese Informationszusammenhänge darzustellen. Und das ist im Prinzip die Basis

00:30:32: dann auch, um analytisch heranzugehen, zu sagen, wie hängt denn jetzt ein Punkt an der Stelle mit

00:30:42: einem viel weiter entfernten Punkt zusammen. Über welche Knoten muss ich denn eigentlich gehen,

00:30:47: um diesen entfernten Punkt zu erreichen und was passiert da auf dem Weg dahin?

00:30:51: Das wäre jetzt vergleichbar, wenn wir jetzt von so einem ganz normalen relationalen Datenmodell

00:30:56: ausgehen würden, wo wir den Zug zwischen zwei Tabellen herstellen wollen, eine Zwischentabelle

00:31:00: haben und sagen, naja Primärschlüssel, Fremdschlüssel, dadurch machen wir das Pairing

00:31:04: und haben da vielleicht in einem ganz einfachen Fall eine Zwischentabelle, die zwei Tabellen

00:31:09: fachlich verknüpft. Ja. So und jetzt, wenn wir da viele Knoten zwischen haben, wären dann die

00:31:14: Knoten dazwischen, die uns diesen Weg zwischen den zwei Knoten an Anfang und Ende, die dazwischen

00:31:20: liegen, wären das jetzt alles sozusagen zwischen Tabellen oder ist das, also ich versuche gerade

00:31:24: so einen Vergleich zu dem zu ziehen, was wir jetzt tagtäglich auch jetzt im Apex-Kontext zum

00:31:28: Beispiel machen, wie wir das übertragen können von der Herangehensweise, wenn wir so eine Graph

00:31:33: Ich mache diesen Fehler nicht. So eine Graph-Datenbank, also ein Graph-Modell, nehmen dafür.

00:31:39: So ein relationales Modell basiert darauf, dass ich mir vorher Gedanken darüber mache,

00:31:46: welche Informationseinheiten habe ich und wie hängen die zusammen. Und dann lege ich halt

00:31:50: meine Tabellen an und die Foreign Key Constraints und dann taucht auf einmal ein neuer

00:31:58: Informationszusammenhang auf, wo ich eine neue Tabelle aufmachen muss oder vielleicht so eine

00:32:02: Zwischentabelle, weil ich eine M-Beziehung habe.

00:32:06: Und das Ergebnis ist, dass ich nicht nur das Schema dieser Daten ändere,

00:32:14: sondern ich muss dann auch die Applikationen ja entsprechend anpassen.

00:32:18: Das heißt, ich habe hier immer die entsprechende Schemainformation vorneweg,

00:32:24: die muss ich definieren und dann kann ich meine Applikationen entsprechend erweitern.

00:32:30: Bei einem Grafdatenmodell bin ich davon unabhängig.

00:32:35: Das heißt, ich kann beliebig ein Grafdatenmodell erweitern.

00:32:40: Und was ich dann analytisch mache, ist im Prinzip,

00:32:44: dass ich dann mich nur ein Stückchen weiter in meinem Grafen fortbewegen muss,

00:32:51: um dann zu dieser neuen Informationseinheit zu gelangen.

00:32:55: Das heißt, ich habe nicht den Zwang, mir vorher über alles,

00:33:01: alle möglichen Informationen Gedanken zu machen,

00:33:05: wie die jeweils zusammenhängen und das über Form Key Constraints

00:33:08: entsprechend auch abzusichern, sondern ich kann gucken,

00:33:13: wie entwickelt sich etwas und nehme mir dann einfach

00:33:17: diese neuen Informationseinheiten dazu und sage,

00:33:20: okay, jetzt hängen die so zusammen.

00:33:22: natürlich dann die Applikation auch entsprechend mit umgehen können, aber typischerweise ist das

00:33:29: eine einfache Ansatz als alles im Vorfeld definieren zu müssen und dann ja trotzdem

00:33:35: auch die Applikation noch entsprechend anpassen zu müssen. Manchmal ist es echt spannend, wie man

00:33:42: das versucht, weil man in diesem Medium hier im Podcast keine Möglichkeit hat, irgendwas zu zeigen,

00:33:46: keine Folien, keine Sachen einblenden, wo man das jetzt mal visuell darstellen würde. Ich glaube,

00:33:51: existieren drei Bilder, die wir gerade für uns selber gezeichnet haben, aber ich finde, das hast

00:33:56: du so ausgedrückt, ich glaube, dass diese drei Bilder wirklich übereinstimmen. Wenn wir jetzt

00:34:00: mal rein von dem Beschreiben eines solchen Modells oder von den Zusammenhängen weggehen und überlegen,

00:34:06: wie würden wir das technisch umsetzen, ist jetzt kein einfaches Select Statement, was wahrscheinlich

00:34:12: exakt das gleiche ist, was wir jetzt von diesen gerade genannten normalen Daten fangen, mit einem

00:34:16: Join dazwischen und wie auch immer, dass man das so auflöst. Da fehlt mir jetzt die Information,

00:34:21: wie unterscheidet sich das von meinem normalen Join, den ich jetzt in einem Select Statement

00:34:25: mache, wenn man jetzt solche Relationen über verschiedene Kanten darstellen möchte.

00:34:30: Ich mache mal vielleicht ein einfaches Beispiel, um das nochmal ein bisschen als Bild in den Kopf

00:34:37: zu bringen. Wenn wir mal von einem recht einfachen homogenen Knoten- und Kantenmodell ausgehen,

00:34:45: also von einem Grafen, der recht homogen ist und einfach eine Gruppe von Menschen,

00:34:50: die untereinander in Beziehung sind. Zum Beispiel so ein soziales Netzwerk auf LinkedIn. Das sind

00:34:55: Personen, die sich mit anderen Personen verbinden, direkten Kontakt haben. Dann habe ich ja,

00:35:02: wenn ich auf LinkedIn zum Beispiel gucke, wer ist in zweiter Instanz mit mir verknüpft oder

00:35:06: in dritter Instanz, wenn man das relational als Abfrage abbilden möchte. Wenn ich eine

00:35:16: Abfrage machen möchte, wer hängt denn in der sechsten Stufe mit mir zusammen, dann muss ich

00:35:23: im Prinzip sechsmal die Personentabelle joinen und das relational dann die Datenbank durchrödeln.

00:35:35: rödeln, um dahin zu kommen, das frisst Ressourcen, also das ist nicht optimal. Und dafür genau sind

00:35:46: dann die Erweiterungen aus diesen Grafanfragesprachen geeignet, die nämlich die Topologie eines Graphen,

00:35:56: wie hängen die einzelnen Informationseinheiten zusammen, die wird in einer Grafanfragesprache

00:36:04: entsprechend berücksichtigt und kann damit viel effizienter umgehen, als wir es im relationalen

00:36:10: Kontext halt über Joins mit den Tabellen machen würden. Ich mache aber hier an der Stelle noch

00:36:17: den Bogen zu dem, wie ihr dann auch damit umgehen könntet. Also bisher sind diese

00:36:23: Graf-Anfragesprachen eigene Sprachen. Sie sehen SQL sehr ähnlich, aber sie sind sozusagen noch

00:36:33: eine zweite Engine neben SQL. Und das, was gerade passiert, schon eine ganze Weile ist,

00:36:39: den SQL-Standard, um diese Graf-Anfrage-Sprachelemente zu erweitern. Und das wird hoffentlich in Richtung

00:36:55: nächstes Jahr dann auch kommen, dass man dann die erste Spezifikation hat, wie innerhalb von SQL

00:37:04: auch mit Graphen umgegangen werden kann. Und das ist dann für uns natürlich eine super

00:37:09: komfortable Situation, weil mit der Oracle Datenbank, die diesen, ich nehme mal den alten

00:37:16: Begriff, diesen multimodalen Ansatz hat, aktuell sagen wir Converge Database dazu,

00:37:21: wo wir also ganz unterschiedlich modellierte Daten wie Geodaten, wie Relational, wie JSON-Dokumente

00:37:29: oder auch halt Graph-Modell direkt an der Datenbank drin haben. Das dann alles komplett

00:37:36: über SQL abfragen zu können, diese unterschiedlichen Datenmodelle auch zu mischen und dann zu sagen,

00:37:42: "Okay, ich möchte jetzt einen Knoten haben, der ein Attribut hat mit einem Namen und dieser Name,

00:37:52: ich weiß nicht genau wie der heißt, aber da nutze ich vielleicht das ganze Thema Vortex Index noch,

00:37:56: da mache ich eine Fassisuche auf den Namen des Knoten und dann soll dieser Knoten vielleicht

00:38:04: noch ein räumliches Attribut haben, nämlich in Nürnberg liegen oder was auch immer. Dann kann

00:38:11: ich diese ganzen Bestandteile entsprechend zusammenfügen und über ein einziges SQL-Statement

00:38:16: ausdrücken und habe dann das Ergebnis der Analyse, was ich dann weiterverarbeiten kann.

00:38:21: Das funktioniert momentan ja schon super gut mit dem Bereich JSON, mit dem Bereich Geodaten.

00:38:28: Das können wir ja alles mittlerweile direkt über SQL abgreifen. Beim Thema Graph haben wir zwar

00:38:36: diese Graf-Anfragesprache auch schon, jetzt kommt ein neues Wort, gewrapped,

00:38:43: PRSQL-Wrapping drumherum gebaut, um das auch innerhalb von PRSQL-Prozeduren entsprechend

00:38:52: mit abzugreifen oder auch im SQL-Bereich. Aber das ist halt so ein Wrapping um die eigentliche

00:38:57: Graf-Anfragesprache. Wenn dann aber der Standard, der SQL-Standard, diese Erweiterung im Kern

00:39:03: beinhaltet. Dann können wir das entsprechend direkt in die Datenbank mit einbauen und dann

00:39:08: haben wir wieder eine neue Dimension aus meiner Sicht dazu gewonnen.

00:39:14: Ich kann dieses Bild, was ich jetzt gerade bei mir noch gezeichnet hatte,

00:39:18: es ist wieder ein weiteres Bild, was ich gezeichnet hatte, von dem Kunden oder von

00:39:21: dem Kollegen das Gesicht, wenn ich mit so einem Datenmodell um die Ecke kam,

00:39:26: wie du es gerade beschrieben hast, naja, wir mischen einfach eine Graph-Datenbank

00:39:30: und so Graph Schema und mit dem alten normalen Modell und dann verknüpfen wir das und dann

00:39:36: können wir ja gucken, dass diese einen Daten in so einer Struktur sind, die anderen Sachen

00:39:39: in so einer Struktur und packen nochmal die Geodaten in einer weiteren Dimension dazu.

00:39:43: Wenn ich so zu einem Kollegen gehe und sage, so habe ich mir das mit der Anwendung gedacht,

00:39:46: dass wir so denken, dann kriege ich wahrscheinlich ein Vogel gezeigt. Aber ich finde das toll,

00:39:50: dass sich das alles innerhalb von dieser Abfragesprache dann irgendwann zusammenfindet,

00:39:55: dass man alles nutzen kann von diesen Technologien, aber es nicht unbedingt muss.

00:40:00: Gerade das Einbringen von diesen JSON-Funktionalitäten in den letzten Jahren, das hatten wir uns natürlich

00:40:07: vorher auch gewünscht, haben es mit anderen Mitteln gemacht, aber dass man das jetzt so

00:40:11: einfach in einer SQL-Query macht, das sorgt natürlich dafür, dass sehr viele Leute,

00:40:15: sehr viele Entwickler umdenken, wenn sie ihre Anwendung schreiben. Wenn das jetzt in den Standard

00:40:20: kommt mit diesen Graph-Abfragen, kann ich mir vorstellen, dass der Zugang für den,

00:40:24: ich nenn ihn jetzt mal normalen Entwickler,

00:40:26: vielleicht auch ein bisschen einfacher ist oder direkter erweckt ist.

00:40:29: War für mich vorher noch gar nicht so richtig klar,

00:40:32: dass sich diese beiden Themen eigentlich nicht wirklich verbinden.

00:40:36: Also schon miteinander arbeiten, aber das Geodaten, Spatial und so weiter

00:40:39: nicht direkt mit diesen Graph-Geschichten fest verbandet ist.

00:40:43: Und dass durchaus für uns Apex-Entwickler auch

00:40:45: Graph-Technologien eigentlich mal wirklich relevant werden können.

00:40:49: Mhm. Ich hab sogar direkt ein Beispiel im Kopf,

00:40:53: weil ich wüsste jetzt nicht, ob man das da umsetzen könnte,

00:40:56: aber da geht's um Berechtigung und Benutzer.

00:40:58: Die sind irgendwie alle ganz kreuz und quer miteinander verbunden.

00:41:01: Das Datenbankmodell ist auch hierarchisch aufgebaut,

00:41:04: das heißt, kann alles vererbt werden und so.

00:41:07: Irgendwie hab ich da grad im Kopf,

00:41:08: dass man da genau so was mitmachen könnte.

00:41:11: Für mich ist das grad so ein mind-blown-Effekt,

00:41:13: der hier grad stattfindet.

00:41:15: Weil ich denk, oh, und diese Möglichkeiten.

00:41:17: Ja, also hierarchische Strukturen kann man ja relational

00:41:21: bis zu einer gewissen Tiefe ja noch ganz gut abbilden. Kritisch wird es dann, wenn es Rückbezüge

00:41:28: gibt, wenn es Schleifen gibt, die dann, da dann eine relationale Datenbank effizient arbeiten zu

00:41:36: lassen, das wird schwierig. Und das ist halt im Bereich der Grafentechnologie, da kann ich halt

00:41:42: in die Ente-Dimension quasi oder in den Enten-Hop noch mitmachen und das erreichen und es entsprechend

00:41:52: analysieren in der endlichen Zeit. Und das ist dann einfach der Vorteil, den wir an der Stelle

00:42:01: haben. Und natürlich auch das, was wir aus Anwendungsentwicklungssicht ja auch an Vorteilen

00:42:08: haben für diesen schema-less Ansatz, dass ich halt mir nicht vorher Gedanken über alles machen muss,

00:42:14: weil wir wissen ja heute noch nicht, was eine Applikation morgen, übermorgen braucht, was für

00:42:20: mich relevant ist, welche neuen Informationen ich dazu bekomme und die ich dann auch mit weiter

00:42:26: verarbeiten möchte. Und das bietet halt so ein Graph-Modell. So, ich finde das super spannend.

00:42:36: Und deswegen bin ich auch so flier dabei geblieben und sehe auch noch ganz viel Potenzial für die Zukunft, dass ich genug zu tun habe.

00:42:46: Es ist immer wieder faszinierend, wie unsere Podcast-Gäste und -Gästinnen uns da Flöhe ins Ohr setzen, dass wir eigentlich echt interessiert daran sind, eigentlich all diese Themen mal zu bearbeiten.

00:42:57: Das ist jetzt wieder so ein Thema, was ich mir garantiert angucken werde.

00:43:00: Ich habe jetzt noch zwei Fragen zu dem Thema Graph.

00:43:02: Also zum einen, also ich habe natürlich unglaublich viele Fragen im Kopf gerade,

00:43:07: aber zwei Fragen, die mir von vornherein auch schon klar waren.

00:43:09: Du sagtest jetzt, dass das standardisiert wird.

00:43:12: Also dass das jetzt natürlich mit in die normale Abfragesprache reinkommt.

00:43:17: Also wie funktioniert das?

00:43:18: In SQL.

00:43:19: Genau, es kommt in SQL rein und das ist ja dann nicht mehr Oracle spezifisch oder nur Oracle,

00:43:23: sondern so ein Standardisierungsprozess sieht ja anders aus.

00:43:26: Vielleicht kannst du dazu nochmal was sagen.

00:43:29: Also ich bin in dem Standardisierungsgremium nicht drin, aber wir haben jemanden hier,

00:43:34: auch gerade auf der DUA-Konferenz mit der Ulrike Schwinn, die jetzt sehr nah dran ist und da auch

00:43:41: Informationen direkt aus dem Standardisierungsgremium bekommt. Ansonsten haben wir zwei Leute direkt in

00:43:49: dem SQL-Standardgremium, die da auch mitarbeiten und dann auch die entsprechenden Leute bei uns

00:43:56: aus der Entwicklung, die spezifisch zum Thema Graf-Erweiterung, Graf-Sprachkonstrukte in SQL

00:44:04: dann auch zuarbeiten. Und das Gremium, das heißt von Oracle gibt es jemanden, der dazu natürlich

00:44:10: beiträgt, logischerweise. Ja, aber auch von anderen Herstellern. Also da ist nicht nur Oracle bei,

00:44:16: da sind andere typische Datenbankhersteller wie Postgres mit dabei, da sind die spezifischen

00:44:25: Graph-Datenbank-Hersteller wie zum Beispiel Neo4j, da sitzt in so einem Gremium mit drin,

00:44:30: die haben natürlich alle ihre eigene Vorstellungen und Vorschläge auch, wie dann so eine

00:44:40: Standarderweiterung aussehen kann und sollte. Ja, und die müssen sich zusammenfinden und dann

00:44:47: was Gutes definieren, das dann von allen entsprechend möglichst schnell umgesetzt

00:44:51: werden kann. Und der Vorteil in so einem Gremium Hitzearbeiten ist ja dann auch zum einen natürlich,

00:44:57: dass man halt an der Spezifikation mitarbeiten kann, aber sehr früh auch die die Information

00:45:03: bekommt, in welche Richtung geht das und unsere eigene Datenbankentwicklung daraufhin auch

00:45:11: entsprechend anpressen kann. Das wäre also sehr zeitnah dann auch mit diesen Standard in der

00:45:17: Praxis auch unterstützen können mit einer neuen Datenbankversion.

00:45:20: Die zweite Frage, bevor wir in die Kategorien übergehen, wäre jetzt für mich noch, wenn ich

00:45:27: jetzt eine Oracle-Datenbank habe, ist Lizenzierung immer so ein Thema. In welcher Version kann ich

00:45:33: all das, was wir jetzt besprochen haben, dann nutzen? Das heißt, Spatial- und Geodaten,

00:45:39: inklusive Verarbeitung und Packages, was man da so alles findet in der Datenbank, und das Thema

00:45:43: Also das Thema Spatial ist ja schon sehr frühzeitig in die Oracle Datenbank reingekommen. Also eine

00:45:53: Person, die in dem Umfeld von Oracle sehr bekannt ist, ist mein Kollege Hans Fiemann,

00:45:57: mit dem ich im Product Management die Themen Spatial und Graph auch bearbeite. Und der hat

00:46:04: in den 90er Jahren angefangen, mit Geodaten und Geodatenkunden in Deutschland zu arbeiten,

00:46:10: damals wirklich noch mit ganz einfachen Geometrien, wie ich es ja am Anfang beschrieben hatte, mit

00:46:14: Punktlinien, Polygone, die entsprechend abgebildet worden. Und das hat sich halt in den 25, 27 Jahren

00:46:22: jetzt weiterentwickelt für uns. Und sowohl die Grafunterstützung als auch die Geodatenunterstützung

00:46:32: ist Teil jeder ARCA-Datenbankedition. Das heißt, wir haben sie sowohl in der freien Expressedition

00:46:39: drin als auch in der Enterprise Edition. Es sind keinerlei zusätzliche Lizenzgebühren,

00:46:47: weil es eine Datenbankoption ist oder was auch immer, zu bezahlen. Diese Entscheidung in Bezug

00:46:55: auf Spatial and Graph wurde 2019 getroffen. Bis dahin gab es ja diese eigene Option,

00:47:00: Spatial and Graph, als Aufsatz für die Oracle Datenbank aus Lizensierungssicht. Das ist aber

00:47:08: weggefallen, weil man da die Entscheidung getroffen hat, alles das, was aus Sicht der

00:47:12: Anwendungsentwicklung ein sinnvolles Feature ist, soll in jeder Edition frei verfügbar sein. So

00:47:21: wie Apex ja auch komplett frei verfügbar ist, kann alles in Richtung JSON, in Richtung Graph,

00:47:29: in Richtung Machine Learning, in Richtung Advanced Analytics, in Richtung Graph, ist

00:47:34: komplett mit abgedeckt und kann von jeder Edition benutzt werden. Und speziell das Thema Graph,

00:47:39: da gibt es nochmal zwei Ausrichtungen. Das eine ist dieser generische Graph-Ansatz mit dem Knoten-

00:47:47: und Kantenmodell, wo ich beliebige Graphen mit erzeugen kann. Das ist seit Version 12.1 das

00:47:56: erste Mal in die Datenbank gekommen. Wir hatten aber schon seit Version 10 der Orake-Datenbank

00:48:02: auch basierend auf einem Knoten- und Kantenmodell das ganze Thema semantische Netze unterstützt.

00:48:11: Und das ist ein spezialisierter Graph aus dem Bereich der semantischen Technologien mit einer

00:48:18: sehr starken Standardisierung der W3C. Da gibt es diesen Begriff Resource Description Framework,

00:48:25: wie kann ich im Prinzip Ressourcen eindeutig abbilden und die Beziehungen zwischen Ressourcen

00:48:35: und das wird über dieses sogenannte Resource Description Framework gemacht und dann gibt

00:48:40: es auch eine eigene Anfragesprache für solche semantischen Netze und das nennt sich Sparkle

00:48:46: und das ist auch Teil der Oracle Datenbank, dass wir die Sparkle Anfragen über einen eigenen

00:48:54: über eine eigene Spracherweiterung direkt in die Datenbank mit reinnehmen können und dann auch das

00:48:59: Thema semantische Netze entsprechend mit abbilden können von den Daten als auch von den Analysen.

00:49:06: Also der Trend, was du gerade gesagt hast, der Trend, dass super viele Werkzeuge und super viele

00:49:12: Sachen einfach für alle verfügbar gemacht werden, das ist etwas, was mich früher sehr gestört hat,

00:49:17: als ich angefangen habe, dass es das noch nicht gab und dass ich jetzt eine XE hochfahren kann,

00:49:22: Also gerade dieser Refresh der XE und dann kommt die mit allem um die Ecke, dass ich wirklich alles ausprobieren kann.

00:49:28: Bin ich auch sehr glücklich drüber.

00:49:30: Ja, bitte so weiter.

00:49:32: Ja, also ich habe gejubelt, als diese Ankündigung und dann auch Entscheidung kam.

00:49:38: Also ich kann das super gut nachvollziehen und das macht die Gespräche mit den Kunden auch sehr viel einfacher.

00:49:44: Ja, nichts ist schwerer als Interessenten, also Kunden und auch interessierte Entwickler zu einer Technologie zu führen,

00:49:50: als vorher schon der Fakt, dass es einfach sowohl zum,

00:49:53: ich nenne es jetzt einfach mal, testen oder ausprobieren und zu lernen,

00:49:56: als auch für den Einsatz hinterher jede Menge Geld kostet.

00:49:59: Also das ist ja eine riesen Abschreckung dafür,

00:50:02: dass sich Leute mit dem Thema befassen.

00:50:03: Von daher ist es toll, dass es davon weggegangen ist.

00:50:05: Ich wollte gerade sagen, nicht nur XE, sondern auch Always Free Tier.

00:50:08: Und ich weiß genau, was ich mit meiner Free Tier die nächsten Tage machen werde.

00:50:12: Ja, ein bisschen rumspielen.

00:50:13: Ja, also es ist so ein bisschen wie mit der Diskussion,

00:50:16: die wir jetzt gerade hatten um dieses 9-Euro-Ticket.

00:50:19: ein einfaches Modell zu haben, ja etwas zu bekommen und damit eigentlich alles tun zu

00:50:30: können und nicht hier muss ich den Tarif bezahlen, dort muss ich den Tarif bezahlen,

00:50:37: der geht für zwei Stunden, da kann ich nur von A nach B fahren auf dem direkten Weg,

00:50:41: dass ich mir darüber überhaupt keine Gedanken mehr machen muss, das ist so befreiend, glaube

00:50:49: für viele konnten, dass man dann entspannter an so ein Thema rangehen kann und dann sagt,

00:50:54: okay, dann probiere ich das jetzt einfach mal. Ich fahre jetzt einfach mal los. Und das ist

00:51:01: eigentlich das, was ich gerne erreichen möchte und wo ich alle nur dazu ermutern kann.

00:51:06: Wunderbar. Das ist ein toller Abschluss für den Tag, wo wir über technische Dinge sprechen.

00:51:12: Und jetzt möchte ich gerne noch die typischen Fragen, die wir vorbereitet haben, in unseren

00:51:17: Kategorien mal anschauen. Caro, hast du dir da schon eine rausgesucht?

00:51:22: Ja, du hattest ja eingangs erwähnt, dass du gerne lernst, gerne aufnimmst und sowas. Und

00:51:29: wir haben dort tatsächlich eine sehr passende Frage für, nämlich aus dem Bereich rein

00:51:33: hypothetisch. Mit welchem Thema würdest du dich gerne beschäftigen, mit dem du dich heute noch

00:51:38: nicht beschäftigst? Das ist schwierig. Es gibt so ein paar Themen, denen ich mein ganzes Leben

00:51:46: lang begleitet haben und die ich dann immer wieder vorhole. Und das ist einmal das Thema

00:51:55: Sprachen. Ich bin also schon immer mit einem großen Interesse für Sprachenlernen aufgewachsen

00:52:04: und habe das entwickelt. Das Thema Geografie und die Welt erleben hatte ich ja auch schon

00:52:10: vorhin gesagt, wobei das dann dadurch, dass ich im Außengruß geworden bin, ja so ein paar

00:52:21: natürliche Grenzen hatte, die ein bisschen enger gezogen waren als woanders. Aber dann natürlich

00:52:30: auch so ein Wunsch besteht, ja solche Grenzen zu erweitern. Also das ist ein Thema, was mich

00:52:36: begleitet hat. Ja, ich habe immer sehr gerne und viel Sport gemacht, ganz unterschiedliche Dinge.

00:52:42: Das ist auch etwas, was ich weiterhin in meinem Leben drin haben will. Was ich so vermisst habe

00:52:50: in meinem Leben, was ich gern gemacht hätte, aber es hat irgendwie nicht geklappt aus verschiedenen

00:52:55: Gründen. Ich hätte gerne ein Musikinstrument gelernt. Das war für mich immer so ein Traum.

00:53:01: und ja, mal gucken, ob ich das nochmal wieder vorhole und mir die Zeit dafür nehme, das für

00:53:10: dich dann auch zu machen. Das ist, glaube ich, eine gern gesehene Abwechslung zu dem täglichen

00:53:15: am Computer sitzen und diese ganzen kompletten Themen zu bearbeiten, dass man sich dann hinsetzt

00:53:20: und dann… Wobei man muss dann gucken, dass man sich nicht so ein Instrument ausguckt,

00:53:24: wo man dann wieder sitzt. Aber vielleicht sollte man das mit Tanzen verbinden oder was auch immer.

00:53:29: vielleicht oder auch ein nicht so anspruchsvolles Instrument, wo man sich genauso anstrengen muss,

00:53:34: um die ganzen Bewegungen da… Ich kenne mich jetzt mit Instrumenten auch nicht aus,

00:53:38: aber ich kann mir gut vorstellen, dass es da durchaus Instrumente gibt, die man leichter

00:53:42: lernen kann, wo man dann gut bei abschalten kann. Noch eine Frage aus dem Bereich rein hypothetisch.

00:53:47: Wenn du einen technologischen Trend in den letzten Jahren ungeschehen machen könntest,

00:53:53: welcher wäre das also manchmal wünsche ich mir so eine reset hast du oder ich sag es mal anders

00:54:04: also ich nutze sehr gern und relativ viel mein smartphone mein tablet und vor allen dingen

00:54:13: finde ich diese entwicklung super dass ich wirklich auch ja sehr einfach mit jemandem

00:54:20: kommunizieren kann, was mich daran stört ist und wo ich selber auch immer wieder für mich gucken

00:54:28: muss, dass ich mich dann auch entsprechend ein bisschen diszipliniere, wie viel nutzt man das

00:54:34: Ganze wirklich. Und da Bewusstsein zu entwickeln, so ein Ding zur Seite zu legen und sich wieder in

00:54:44: die Augen zu gucken, miteinander zu sprechen, die Gelegenheit zu geben, sich anzulächeln,

00:54:51: was man nicht hat, wenn man nur da drauf steht. Das würde ich mir schon nicht nur für mich,

00:55:00: sondern für die Menschen um mich herum auch wünschen. Das beantwortet fast ja auch schon

00:55:07: unsere Frage aus dem Bereich Konsum. Dann stellen wir die doch auch noch direkt hinterher. Wie

00:55:13: Wie gehst du mit der wachsenden Informationsflut über diese ganzen Kanäle, die du gerade auch erwähnt hattest, um?

00:55:19: Also es geht jetzt ja nicht nur um Nachrichten, die das verhindern, dass man sich ins Gesicht schaut oder mal anruft,

00:55:24: oder dass man sich so aufsucht und miteinander spricht, sondern es geht ja auch in dem Fall auch um Information, News.

00:55:30: E-Mails sind dann schon eher dieser direkte Kontakt, aber die Push-Nachrichten auf dem Handy, die Information von den Nachrichtensendern

00:55:38: oder Wetterinformationen, was auch immer es ist, das ist ja eine Rieseninformationsflut,

00:55:42: die mittlerweile auch über das Smartphone auf uns einrieselt. Wie gehst du damit um?

00:55:46: Typischerweise habe ich zum Beispiel mein Smartphone auf lautlos gestellt,

00:55:53: damit ich selber mich aktiv sozusagen auf mein Handy konzentrieren muss, um Nachrichten

00:56:00: abzurufen. Es sei denn, es ist jetzt irgendwie eine dringliche Geschichte, die ich voraussehen kann,

00:56:09: dann mache ich es auch mal an. Das ist das eine. Das andere ist, ich versuche zum Beispiel nicht

00:56:16: ständig in meine E-Mails zu schauen, sondern mir Zeiten dafür zu blocken, wo ich dann reinschaue

00:56:22: und dann die Sachen abarbeite. Und dann habe ich ganz viele Benachrichtungen einfach ausgestellt,

00:56:29: dass man ständig irgendwie einen Hinweis bekommt, was weiß ich von meiner Uhr, wie

00:56:36: viel Schritte ich jetzt gegangen bin, dass ich noch so und so viel Schritt am Tag übrig habe,

00:56:43: oder was man auch sonst alles für Benachrichtigungen einstellen kann. Vieles habe ich abgestellt. Es ist

00:56:49: ein bisschen nervig, dass man immer aktiv werden muss, um das auszustellen und nicht aktiv, um

00:56:55: die dinge einzustellen das stört mich relativ viel ja auch das mit den cookies so ist eigentlich

00:57:05: sollte man die standardmäßig auf dem geringsten level lassen und dann ja aktiv mehr freigeben

00:57:13: ja aber das sind so ein paar strategien die ich an der stelle versuche umzusetzen

00:57:20: Wie konsumierst du denn, also du sagst jetzt, du gehst aktuell aktiv an dein Handy zum Beispiel

00:57:29: dran oder an dein Tablet, um diese Ressourcen zu konsumieren. Wie pflegst du denn eigentlich

00:57:36: deinen Wissensstand jetzt? Liest du Twitter, liest du Bücher, guckst du in Zeitschriften

00:57:43: oder bildest du dich gerne weiter, indem du Schulungen besuchst oder mit einem Mentor sprichst

00:57:47: oder mit deinem Kollegen, wie bringst du dein Wissenstand quasi auf den neuesten Stand?

00:57:54: Ja, also natürlich nutze ich Suchmaschinen, um bestimmte Begriffe, die ich aufschnappe oder die

00:58:04: ich das erste Mal höre, wo ich keinen Hintergrund habe, um erstmal sozusagen Grundwissen zu haben.

00:58:10: Und dann habe ich YouTube-Videos, die ich benutze, um dann auch einen besseren visuellen Eindruck zu

00:58:21: bekommen von dem, was da vorgestellt wird. Ich lese auch ziemlich viel Bücher. Wir haben die

00:58:29: Möglichkeit bei uns, dass wir online fast alle Fachbücher zugreifen können, die es da so gibt.

00:58:36: Das mache ich ganz viel. Ich gucke auch, dass wir unsere eigenen Ressourcen, Oracle Education,

00:58:45: das nutzen. Also ich habe ja in meiner Zeit als Solution Engineer, Sales Consultant, wie auch

00:58:57: immer das so über die Jahre hieß, haben wir immer wieder auch dazulernen müssen. Und da sind unsere

00:59:02: eigenen Angebote über Oracle University oder Education, wie es auch heißt, dann auch ganz

00:59:09: hilfreich, da Kurse zu belegen und Dinge auszuprobieren. Ich probiere ganz viel aus.

00:59:15: Livelabs ist zum Beispiel so eine Geschichte, die Oracle aufgesetzt hat, wo ich mir dann immer die

00:59:23: Themen hernehme und dann die Sachen ausprobiere. Ich muss es auch irgendwie fühlen. Blöderweise

00:59:28: kriege ich dann auch immer was, wo ich stolpere, weil dann irgendein Problem auftaucht. Nicht

00:59:37: unbedingt bei den Live-Labs, weil die sind ja durchgecheckt, aber wenn ich mir ein neues

00:59:41: Thema vornehme und dann fange ich an, mir eine Umgebung aufzusetzen und dann Dinge auszuprobieren,

00:59:47: stößt man immer irgendwie auf Probleme. Manchmal denke ich, ich bin die erste, die dann jetzt hier

00:59:53: wieder gegen eine Hürde laufen. Wird nicht so sein, aber ja, die Hürden aus dem Weg zu räumen,

00:59:59: das ist eigentlich der Punkt, wo man dann auch am meisten lernt, glaube ich. Weil wenn alles

01:00:06: einfach nur durchgeht, dann merkt man das sich nicht so gut wie dann Probleme, die auftauchen,

01:00:13: und wo man dann gezielt Ursachenforschung betreiben muss und dann sich auch ein Workaround

01:00:19: überlegt oder einfach auch mal jemanden fragt, was kennst du das Problem und was ist die Lösung davon?

01:00:26: Also viel mit anderen auch sprechen und da bin ich ganz dankbar, dass ich so viele Leute um mich

01:00:34: herum habe, die erstens ein ähnliches Mindset haben wie ich und zum anderen aber auch schon

01:00:40: so viel gemacht haben und so viel Erfahrung mitbringen und ja, dieses Netzwerk an Personen

01:00:47: und Skills, unterschiedlichen Skills zu nutzen. Das ist für mich auch eine ganz wichtige Komponente

01:00:51: und es ist auch ein ganz wichtiger Punkt, der mich weiterhin bei Orica hält, weil es einfach

01:00:57: so viele tolle Leute gibt in meinem Umfeld. Und ja, und man kann immer irgendjemanden fragen

01:01:05: und kommt in der Regel dann schneller zum Ziel, als wenn man es alles nur alleine macht.

01:01:11: Das gilt tatsächlich für ziemlich viele Bereiche.

01:01:14: Ja, du bist ja noch nicht so lange hier auf der Konferenz.

01:01:17: Ich meine, du bist ja heute erst angereist.

01:01:19: Aber ich würde dich trotzdem gerne einmal fragen,

01:01:22: ob du bereits jetzt schon was von der Konferenz für dich persönlich mitnehmen kannst.

01:01:27: Ja, dieser Podcast heute ist ein komplett neues Format für mich.

01:01:33: Also das ist jetzt quasi das Highlight des Tages bisher.

01:01:40: Dazu kann man sagen, dass wir gerade 10 Uhr haben und der Tag noch nicht besonders lang ist.

01:01:44: Ich nehme das so an.

01:01:47: Ja, genau.

01:01:49: Wir nehmen ihn jetzt.

01:01:51: So ist es, wunderschön.

01:01:53: Also von daher, das ist jetzt wirklich eine komplett neue Erfahrung für mich.

01:01:58: Und ja, schön, diese Möglichkeit auch bekommen zu haben.

01:02:04: Und wieder, Carol, ein wunderschönes Schlusswort für diese Folge.

01:02:08: Folge. Wir haben viele technische Sachen kennengelernt, wir haben neue Themen kennengelernt,

01:02:13: wir haben sehr schöne Bilder zeichnen können in unserem Kopf, wo wir uns viele neue Themen besser

01:02:18: vorstellen können. Und ja, mir hat es sehr gut gefallen. Vielen Dank, liebe Karin. Viel Erfolg

01:02:24: heute auf der Konferenz. Und dann vielleicht auch bis auf ein Wiedersehen in diesem Podcast,

01:02:29: wenn du uns erzählst, was… Ein Wiederhören.

01:02:30: Wiederhören tatsächlich. Naja, also wir sehen uns derzeit gerade.

01:02:33: Ja, richtig. Für unsere Hörer ein Wiederhören natürlich

01:02:38: und vielleicht dann auch mit Musikinstrumenten. Wir schauen mal.

01:02:40: Ja, mal gucken.

01:02:41: Vielen Dank euch beiden und ich wünsche euch einen schönen Tag und bis demnächst.

01:02:44: Ja, dann geht gleich was.

01:02:46: [Musik]

01:03:02: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.