Profilbild von Thomas Poetter IT Architect (AI, Big Data, Cloud, Apps, Enterprise, Security), Agile Coach/Project Management aus Rastatt

Thomas Pötter

verfügbar

Letztes Update: 22.04.2024

IT Architect (AI, Big Data, Cloud, Apps, Enterprise, Security), Agile Coach/Project Management

Abschluss: Dipl.-Informatiker
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher) | französisch (verhandlungssicher)

Dateianlagen

Poetter-Thomas-de-KI-BigData-DataScience_271123.docx
Poetter-Thomas-en-AI-BigData-DataScience_271123.docx
Poetter-Thomas-AWS-Certified-Solutions-Architect-Certificate_271123.pdf
Poetter-Thomas-PMI-RMP-Certficate-2023_271123.pdf
Poetter-Thomas-PMI-PMP-Certficate-2023_271123.pdf
Poetter-Thomas-de-Cloud_220424.docx
Poetter-Thomas-de-Sec_220424.docx
Poetter-Thomas-de-PM-Strategy_220424.docx
Poetter-Thomas-de-kurz_220424.docx

Skills

Meine fachlichen Schwerpunkte:
  1. KI (Künstliche Intelligenz) / AI (Artificial Intelligence): Studienschwerpunkt und fast 30 Jahre Erfahrung in allen Feldern, insbesondere im Deep Learning (TensorFlow etc.), Machine Learning, NLP (Natural Language Processing)/Computerlinguistik.
  2. Big Data (Spark, Hadoop, Kafka, Cassandra) / Data Science / BI: Fraud Detection, Advertising, Smart Functionalities
  3. Cloud: Docker, Kubernetes, Kubeless, Google Cloud Platform (GCP), vmWare, Citrix, Amazon EC2, AWS, OpenStack, OpenShift, Cloud Foundry, MS Azure
  4. Microservices/APIs/Serverless: DDD, Evolutionary Architecture, Versionierung, Schnittstellen- und Protokoll-Design, EAI.
  5. Enterprise Application Integration (EAI): WebServices, Messaging, Batch, In-Memory Frameworks, ESBs, Async Frameworks, Business Rules/BPM(N), Integration verschiedener Technologien wie Unix, Host, Windows, Mobile Platforms.
  6. Mobile Apps / Mobile First Architecture: HTML5, Ionic / Angular, Cross-Platform und Native Frameworks in Java, Scala, C++, C# oder Objective C/Swift.
  7. Hochverfügbarkeit: Business Continuity Management (BCM), Reliability Engineering, Desaster Recovery (DR).
  8. Business-Process-Optimierungskonzepte
  9. Effizientes Beenden von Problemprojekten (mit eigenem Tracing & Analyse-Toolset) sowie Neu-Strukturierung von Problemprojekten.
Meine Projekt-Rollen – am liebsten möglichst innovativ/kreativ:
  1. Architektur: Enterprise IT, Big Data, Cloud, Messaging, APIs, Proofs of Concept (PoC)
  2. IT Sicherheit, eigene IT-Security-Datenbank: Konzepte, Rechte & Rollen, Pen-testing, Logging/Monitoring/IDS/IPS, Entwicklung, Reviews, Incident Response aber KEINE Administration
  3. Projektleitung/Testleitung, Product Owner: meist im Anschluss an Architektur
  4. Agile: Coaching / Risiko-minimierende Einführung/Verbesserung / Product Owner: Design Thinking, Work Hacks, Scrum, ScrumOfScrums, Kanban, DAD, Crystal, Cynefin, Scrum@Scale, SAFe, LESS, Nexus, Use Case 2.0, Learn Startup, Serverless, Holacracy/Pitching Framework und klassische Prozesse: V-Modell XT, RUP/EUP, PRINCE2, ITPM, PMI, IPMA
  5. Schulungen: Big Data und IT Sicherheit
Nur gelegentlich Entwicklung (20%): Java, Scala, Python, C/C++/C#, PHP, Visual Basic/VBA, SQL/HQL in PoCs – GUI-Entwicklung hat den geringsten Anteil (Backend / Fachlichkeit bevorzugt).

Branchen: Alle, Schwerpunkte: eCommerce, Gesundheitswesen/Pharma, Banken/Versicherungen, Telko, öffentl. Sektor, Elektronik/Technologie/Industrie, Transport/Automotive, Energie, Verlage.

Erfolge
8 erteilte Software-Patente im Bereich IT Security / Texttechnologien; zahlreiche Auszeichnungen für Geschäftsideen und Innovationen.

Referenzen: Deutsche Bundesregierung, 9 DAX30-Unternehmen (Dt. Bank, Commerzbank, Allianz/Dresdner Bank, Daimler, BMW, VW, Dt. Telekom, TUI/Hapag-Lloyd, ThyssenKrupp), 10 internationale Großkonzerne (Vattenfall, Thales, Airbus, stryker, B. Braun, Generali, Sal. Oppenheim, Sparda Bank, Noris Bank, Citibank).
Zwei CeBIT-Messehighlights: 1998: Geheimschrift des digitalen Zeitalters (Verbergen von Daten in Text sowie Text-Wasserzeichen zum Copyrightschutz); 2007: Software zum neuartigen Ansteuern der Geldkarte (SECCOS) für die Commerzbank, so dass diese Funktionen einer HBCI-Karte (Verschlüsselung, Verifikation, Signatur, etc.) sowie zur verteilten Freigabe von Einkäufen, Zahlungen erhält.
Internationale allgemeine und wissenschaftliche Publikationen jeglicher Form, große PR- und Medienerfolge im Bekanntmachen von Innovationen (zahlreiche TV-Reportagen, Radio-Reportagen, Artikel in Fachpresse und Tageszeitungen), einige wissenschaftliche Publikationen sind unten aufgeführt.

Spezifische IT-Kenntnisse
Software-Tools Microsoft Visual Studio 1998-2008, eclipse, BEA Workshop, GNU gcc / g++ (Win32/Linux)
BEA ALSB/WebLogic, JBoss, WebSphere, Tomcat
Borland C++ Builder, JBuilder, Delphi
MS-Project, Buildserver wie Luntbuild, Anthill, Cruise Control, Continuum
SPSS, Data Mining Techniken & Tools, PC-Anywhere
UML/ RUP, Enterprise Architect (EA von Sparx), Borland Together, IBM / Rational Solution Architect / Rational Rose, ClearCase, Visio, Requirements Engineering, OOA, OOD, CVS, Subversion, Qualitätssicherung (QS) auch nach DO-178B, CATIA/CAA
Konfigurations- und Versionsmanagement: CVS, Subversion, Sniff+
Security: SSH, Utimaco, NCP VPN, L2TP, PPTP
Datenbanken Oracle 9/10, IBM DB2, Sybase PowerDesigner 12, Oracle Sqlplus, TOAD, Squirrel SQL, Oracle JDeveloper, ERWin
MySQL, PostgreSQL, SQLite
MS-ACCESS, MS SQL-Server
Programmiersprachen C / C++, C#/CLI (und andere .NET Technologien)
Java / JEE/ J2EE, JSP, JSF (Sun, JBoss RichFaces), JavaScript, AJAX (JBoss Seam, Backbase, dojo, jQuery, ExtJS, script.aculo.us, prototypeJS, GWT, jQuery), JBoss Portal
PHP, Python, Perl
Pascal / Delphi, Modula 2
Visual Basic / VBA / ASP, PC Assembler, Fortran, COBOL, Smalltalk
Projektleitung / Vertrieb Kostenrechnung, MS Project und Netzplantechnik, IT Infrastructure Library/Service-Orientierte Architekturen (ITIL/SOA), Soft Skills, Koordinations- und Kommunikationsfähigkeit, Vertriebs- und Marketingkenntnisse




Persönlichkeit

Aspekt Beschreibung
Interesse Software-Architektur oder Positionen im kreativen Bereich, die mehr umfassen als nur einfache Programmierung, z.B. auch konzeptuelle Arbeit oder Kundenkontakt oder kreative/innovative, herausfordernde Aufgaben und Anerkennung für Erfolg, effiziente Teamarbeit, Vollenden von Aufgaben (Macher), aber auch wo nötig in die Tiefe zu gehen.
Fundamen¬tale Stärken / Soft Skills Lange Konzentration; exzellentes Gedächtnis & Assoziationsfähigkeit; Kreativität; Fähigkeit, Sprachen leicht zu lernen und schnell autodidaktisch aus Büchern zu lernen; Teamarbeit, Fairness und Kollegialität, Resistenz gegen Manipulationstechniken; Ruhe und kühlen Kopf bewahren; seit Anbeginn Anwendung der Technik, Wissen im Kontext und vernetzt zu lernen, Belastbarkeit, Stresstoleranz.
Resultierende Stärken / Soft Skills Jedes professionell finanzierte Projekt bisher zum Erfolg gebracht, auch grob in den Budget- und Zeitzielen, bewiesene Fähigkeit zum Schaffen und Patentieren von einmaligen Produktvorteilen/Alleinstellungsmerkmalen; schnelles Erfassen von Wissensfeldern durch autodidaktisches Lernen; sehr breites Wissen; schnelles Durchforsten von wissenschaftlichen Publikationen und Nachrichten basierend auf umfassendem Hintergrundwissen und wichtigen Konzepten; Fähigkeit, beliebige Ideen zu zeichnen / zu veranschaulichen mit Grafiken; Einschätzen fremder Persönlichkeiten und Einsatz zum Vergeben von Aufgaben, im Vertrieb und bei Verhandlungen; graphische Spezifikationstechniken wie UML, sehr gute Resultate mit Sparringspartnern / beim Brainstorming, große Projekte in ihrem gesamten Umfang verstehen, theoretische Ideen in stabile, effiziente und erfolgreiche kommerzielle Produkte umsetzen und den gesamten Produkt-Lebenszyklus abdeckende Alleinstellungsmerkmale entwickeln; Patente entwickeln; schnelles Verständnis von komplexen mathematisch-logischen Zusammenhängen; viele verschiedene Mitarbeiter innerhalb und außerhalb der Firma koordinieren; selbständiges Arbeiten, umfassendes Geschäftsdenken.
Weitere Qualifikatio¬nen / Vorteile Hohe Programmier-Produktivität (> 10 Programmzeilen/Stunde) nach Einarbeitung in ein Thema; bestandene Sicherheits-Überprüfung durch MAD und BMWA, Sicherheitsermächtigung für Ebene "geheim", schnelles Lesen, schnelles Tippen, Wissen im Bereich Pre-Sales und Vertrieb, Finanzierung, Subventionsprogramme, tiefgehende Kenntnisse der Standard-Software unter MS-Windows und Linux, Schriftsetzen und Grafikdesign, wirtschaftliches Denken, selbständiges Arbeiten, Stressresistenz.
Wirkung praktischer Erfahrung Pragmatischer, praktischer und effizienter Arbeitsstil, Kundenwünschen in jedem Fall eine hohe Priorität einräumen, Diskussionen auf einer sachlichen Ebene halten; die Persönlichkeit anderer Leute berücksichtigen; Verständnis/Wissen von beiden Seiten (Käufer/Verkäufer, etc.); bessere Strategien zur Problemvermeidung / Risikominimierung, Seriosität bewerten, Sinn für praktisch Machbares.
Große Mobilität Projektbasierte Tätigkeit in jeder interessanten Region in Europa; Wohnen in Hotel/Zimmer vor Ort. Bereitschaft und Freude an Reisen, insbesondere Geschäftsreisen.
Präferierte Positionen Freelancer Projekte in Software-Architektur; Software Engineering; Produkt- oder Projektmanagement; Interimsmanagement (Entwicklungsgruppen oder Business Units)
Hobbies IT, Schwimmen, Badminton, Jogging, Lesen, Grafik-Design, Malerei/Kunst/ Musik

Projekthistorie

Fast 30 Jahre KI-Erfahrung (Künstliche Intelligenz/AI – Artificial Intelligence):
Letzte Jahre (2010 - heute): Deep Learning, Data Science, Big Data
Key Skills: Deep Learning (CNN, RNN, TensorFlow, PyTorch, etc.), Deep NLP (Natural Language Processing: BERT, ULM-FiT, ELMo, Transfer Learning, OpenNMT, OpenAI Transformer, AllenNLP, Stanford CoreNLP), Data Science (Apache Spark MlLib, Mahout, R, spaCy, Anaconda), hybride Modelle (vorgegebene Strukturen + neuronale Netze + Gewichte/Stochastik, z.B. LSTM (Long Short-Term Memory), GRU (Gated Recurrent Units), Attention, Feast AI), PMML, ONNX, OpenScoring.io, Speicherung von Deep Learning Zwischenständen + Modellen, Wissensrepräsentation und Inferenz (Schlußfolgerungen ziehen), Semantik, Virtualisierung, Management mit Docker, Kubernetes, Airflow, etc.
KI-Projekte:
  1. Großer Autokonzern, Autonomous Driving Programm, 2018-heute: Deep Learning für selbstfahrende Autos: Logisch/zeitlich konsistente virtuelle 3D-Stadtgenerierung, Deep Labelling für semantische Bildsegmentierung mit Keras/TensorFlow, Design Patterns für Deep Learning Architekturen, DeepMind (Kapitan, Scalable Agent, Learning to Learn, TF Reinforcement Learning Agents), Horovod (verteilte Trainingslibrary für TensorFlow, Keras, PyTorch), Sparse Blocks Network (SBNet, TensorFlow Algorithmus), Google Dopamine Reinforcement Learning Framework auf Basis von TensorFlow, OpenAI GPT-2, Facebook XLM + PyText, Google BERT.
  2. HSBC Trinkaus & Burkhard AG: Größte Europäische Bank, World's Best Bank 2017 nach EuroMoney, 12/2017 – 11/2018: Security- und SOC-Architekt (Security Operations Center), SOC der 5. Generation: Erweiterung der SOC-Features um KI und Data Science: Ca. 60 kommerzielle Security-Tools. Data Science/KI zur Erkennung von Sicherheitsvorfällen: Neuronale Netze/Deep Learning, Reinforcement Learning, Zeitreihenanalyse, Anomalie-Erkennung, Gradient Boosting (GBM, xgboost), Cubist (Erweiterung von Quinlan’s M5 model tree), Apriori-Analyse, Überwachte Klassifizierung, Link-Analyse-Netzwerke.
  3. Schwarz-Gruppe (Lidl & Kaufland): Machine-Learning zum Einkaufsverhalten der Kunden: Wirkungsanalyse & Optimierung von Marketingaktionen, Optimierung der Supply-Chain: Gradient Boosting (GBM, xgboost), Cubist.
  4. Avira, 2017: Machine-Learning zur Optimierung der Konversionsraten von Freemium zu Paid, Abhängigkeitsanalysen auch zur Optimierung der Boot-Zeiten.
  5. BNP Paribas Personal Investors, 2017: Consorsbank + DAB, World's Best Bank 2016 nach EuroMoney: Konzeption eines Customer Intelligence (CI) Systems mit CDP (Customer Data Platform) und MAP (Marketing Automation Platform) für Hadoop/Spark: Kunden-Segmentierung z.B. nach Personas mit KNIME, Chatbot mit IBM Watson und Open Source DLNLP Tools; DynaMine, Gradient Boosting (xgboost).
  6. Credit Suisse, 2017: Business Transaction Store zur Analyse jeglicher Finanz-Transaktionen: Rekonstruktion aller Transaktionsbäume mit allen Zweigen, Zeitreihenanalyse, Anomalie-Erkennung, Multi-Level-Methoden (Transaktion / Konto / Kaufmann / Konzern), Berechnung eines Verdachts-Scores, sonstige klassische und mehrstufige Verfahren zur Betrugserkennung.
  7. Cisco Systems mit AOK als Endkunde, 2016-2017: Microservice Blueprints für Data Science Anwendungen wie Maximierung des Erfolgs von Gesundheits-Förderprogrammen.
  8. GE (General Electric), 2016: Digital Windfarm Projekt: Make vs Buy vs Improve Analysen mit Machine Learning und ca. 50 Einfluss-Faktoren.
  9. Deloitte Consulting für Daimler Financial Services (DFS), 2016: Erstellung einer Architektur für ein Corporate Memory, insbesondere die möglichst schnelle Erkennung von negativen Bonitätsveränderungen, Vertrags-/Kundenanalyse, Credit Risk, Fraud Prevention mit Machine Learning).
  10. GfK Marktforschungsunternehmen, 2015: BI-Analysen; Werbe-Effizienz-Analysen, Trend- und Sale-Erkennung, Produkt-Lebenszyklus-Erkennung, Konsequenzen von Branding vs. White-Label-Verkauf.
  11. KPT/CPT Krankenversicherung, Schweiz, 2015: Analyse der medizin. Leistungsdaten und daraus Ableitung von Fragebögen und Aufschlägen für Vorerkrankungen und Analyse/Optimierung der Marketing-Aufwendungen, Betrugserkennung z.B. bzgl. der Begünstigten und der Korrektheit der zu erstattenden medizinischen Rechnungen.
  12. Smartclip, Cross-Platform-Video-Werbung (Teil der Mediengruppe RTL, Teil von Bertelsmann), 2015: Vorschläge erstellt für Auswertungen im Data Science Bereich für das Targeting, das zielgruppen-abhängige Schalten von Online-/Internet-Video-Clips; Integration mit DMPs / DSPs, semantische / NLP Analyse der Website-Inhalte und die damit verbundenen Interessen; eine Mischung aus Hauptkomponentenanalyse.
  13. Havas Media Gruppe (Medienagentur Nr. 7 in Europa) in Kooperation mit TheAdex, 2015: a) Semantic Ad Targeting mit Real-time DMP, b) Betrugserkennung in Web-Werbungs-Tags /-Pixels; c) Analyse der Kunden-Reisen (Customer Journey) durch Web-Sites / in der verfügbaren Historie durch Graphen, semantische / NLP Analyse der Website-Inhalte und der damit verbundenen Interessen.
  14. Siemens Corporate Technology/Healthineers (ex: Healthcare) IT, 2014-2015: Konzeption einer vorausschauenden Instandhaltungs-Lösung (Predictive Maintenance) für die Siemens-Medizinprodukte: GMM (Gaussian Mixture Models); Überwachtes Lernen / Supervised Machine Learning, Association Rule Learning.
  15. Dermalog / FingerPayment, 2014: Bekämpfung von hunderten Angriffen mit zugeordneten Wahrscheinlichkeiten und Schadens-Erwartungswerten wie Identitätsklau, Man-in-the-Middle, Timing-, Bit-Manipulations- und Seitenkanalattacken durch hunderte priorisierte Gegenmaßnahmen basierend auf ihrem probabilistisch exakt berechneten Kosten-Nutzen-Verhältnis, beispielsweise Verschlüsselung, Signierung, sicherer Schlüsselaustausch,etc.
  16. Allianz, 2014: Intelligente Data Center Migrationen mit Millionen von Abhängigkeiten ohne Betriebsunterbrechung.
  17. Klingel / KMO-Gruppe: 2014-2015: Verbesserung der Erkennung von betrügerischen Fällen; Erstellung von Vorschlägen für Cross- und Up-Selling; Erweiterung der Analyse zur Optimierung der Online-Werbe-Ausgaben; Betrugserkennung.
  18. BG-Phoenics (IT-Tochter der Dt. gesetzl. Unfallversicherungen (DGUV)/Berufsgenossenschaften), 2013: Vorschlagen von Textbausteinen zur rechtssicheren Erstellung von berufsgenossenschaftlichen Bescheiden und der rechtssicheren Beantwortung von Briefen auf Basis von OCR + ICR (Optical Character Recognition + Intelligent Content Recognition).
  19. Gematik (deutsche elektronische Gesundheitskarte und ihrer Infrastruktur): 2012 & 2013: Konzeption eines Statistik-Moduls zur Identifizierung verschiedener Arten von Angriffen / Betrug mit der Gesundheitskarte oder auf dem Konnektor oder der Backend-Infrastruktur, Anomalie-Erkennung.
  20. Parfumdreams.de (Akzente Parfums), von 2012 bis 2013: Konzeption und Implementierung der Erkennung von betrügerischen Kunden, Bankkonten, Adressdaten, nicht passender Namen oder Schreibweisen und verschiedenes verdächtiges Verhalten; Erstellung von Vorschläge für Cross- und Up-Selling; Betrugserkennung.
  21. Lloyds Banking Group / Heidelberger Leben, 2010-2011: Betrugserkennung / AML (Anti Money Laundering) / KYC (Know Your Customer) in Bezug auf Zahler, Begünstigte, Anschriften, Organisationen, Zeitintervalle z.B. der zusätzlich gezahlten Prämien und zu zahlender Beträge; Datenaustausch über problematische oder betrugs-verdächtige Kunden mit anderen (Lebens-)Versicherungen, Machine-Learning auf dieser Basis.
  22. Deutsche Bundesdruckerei, 2010: Konzeption / Implementierung einer Softwarekomponente für die Überprüfung der Echtheit der deutschen und internationalen Pässe / Personalausweise-Dokumente mit einer Sicherheitsmerkmalsextraktion, Bewertung und statistisches Scoring-Konzept, um Betrug / Fälschungen zu verhindern.
Frühe Berufstätigkeit (1998 – 2010) während der KI-Flaute: Semantic Search, Web Scraping und Inhaltsanalyse, unscheinbare sichere Kommunikation, Text-Wasserzeichen, Competitive Intelligence
Key Skills: Stochastik-, Statistik- und Data-Science-Libraries, Semantic Web, semantische Suche mit Ontologien/Thesauri/strukturierten lexikalischen Daten mit stochastischen Ähnlichkeitsmaßen über Begriffe/Inhalte, OWL, DAML+OIL, NLP-Parsing mit formellen Grammatiken wie HPSG-, LFG-, Chart-Parsern, generatives Lexikon, MRS (Minimal-Recursion Semantics), Expertensysteme, Constraints, KI-Planungssysteme/Workflow-Management-Systeme (WMS), Data Mining, Business Intelligence (BI) mit relationalen und objektorientierten DBs, Helpdesk-Automatisierung, Büroautomatisierung (OCR + ICR: Z.B. Prüfung von medizinischen Abrechnungen, Versicherungsfällen, Vorschlagen von Textbausteinen zur Beantwortung von Briefen).
Projekte mit KI-Anteilen:
  1. Deutsche Telekom / T-Systems, 2007-2008: Aufbau eines Tracking & Tracing-Systems für Inventar und verschickte Waren mit statistischer Analyse der verschickten / erhaltenen Warenmengen wenn sie mit LKW / Bahn / Flugzeuge verschickt werden, der Defekt-Quoten; Analyse aller Warenflüsse in und aus ganzen Fabriken und Betrugserkennung auf dieser Grundlage.
  2. Thales Gruppe / Thales Defence, 2001-2003: Data Science / Statistische Auswertung von Manöver-Daten von Flugzeugen und Schiffen auf Treff- und Ortungsgenauigkeit sowie untergeordnet der Qualität von IT Komponenten und der menschlichen Befehle/Aktionen.
  3. Fraunhofer IESE + Startup: Konzeption eines Semantic Search Systems basierend auf Ontologie-Distanz semantischer Konzepte sowie deren Umschreibungen.
DS-Ansatz: Berechnung der gewichteten Punktzahl aller individuellen Entscheidungen in jedem Textsegment gegen alle anderen Segmente mit ähnlichen semantischen Konzepten. Semantische Konzept-Ähnlichkeit wird als gewichteter / Wahrscheinlichkeitspfad (Knoten und Kanten) in der WordNet-Ontologie berechnet. Erfordert Morphologie und (HPSG-)Parsing.
  1. Fraunhofer IESE + Startup: Konzeption von teilweise vorgegebenen, teilweise selbstlernenden deep semantic Web/Text/Data Mining Algorithmen mit Extraktion aus Tabellen, Beschriftungen, etc. sowie entsprechender Lernalgorithmen basierend auf (HTML-)Strukturen und bereits bekanntem Wissen.
Data Science (DS)-Ansatz: Die Tiefe / DOM-Pfad-Ähnlichkeit der HTML-Tags von Daten aus HTML-Tabellen extrahieren. Minimax-Ansatz: Das Minimieren der Worst-Case-Wahrscheinlichkeit (maximal) der Fehlklassifikation der Tabelleninhalte wird gelernt, Gewinnung einer minimaler-Spannbaum-Segmentierung mit optimal hybrid gewichteten Punktzahlen für Tabelleninhalte.
  1. Fraunhofer IESE + Startup: Konzeption der Algorithmen/Wahrscheinlichkeitsformeln für die Berechnung der Wahrscheinlichkeit, dass ein Text plagiiert ist.
DS-Ansatz: Head-driven Phrase-Structure Grammar Parsing (HPSG) von Texten. Die Bestimmung der statistischen Verteilungen aller Kopf-Tochter-Selektionen, in denen mehrere Möglichkeiten bestehen, z.B. Gauss, Student, Bernoulli und andere Distributionen, Maximum-Likelihood-Schätzer. Berechnung der gewichteten Punktzahl aller individuellen Entscheidungen in jedem Textsegment gegen alle anderen Segmente mit ähnlichen semantischen Konzepten. Semantische Konzept-Ähnlichkeit wird als gewichteter / Wahrscheinlichkeitspfad (Knoten und Kanten) in der WordNet-Ontologie berechnet. Erfordert Morphologie und (HPSG) Parsing.
  1. Fraunhofer IESE + Startup: Extrahieren der statist. Charakteristika persönlicher Schreibstile aus Mustertexten und Anwenden dieser Schreibstile für Text Watermarking und Steganographie.
DS-Ansatz: Head-driven-Parsing (HPSG) von Texten mit Wahrscheinlichkeiten für die Kopf-Tochter Selektionen. Speichern für jeden Autor: a), in welchem grammatikalischen Konstrukt er welche Wort Stellungen / Paraphrasen bevorzugt und b) welche Synonyme er bevorzugt (Häufigkeiten) aus den bekannten Synonym-Sätzen basierend auf Zusammenhänge (HPSG Selektions- und Kontext-Constraints), Maximum-Likelihood-Schätzer.
  1. Diplomarbeit/DFKI + Startup: Entwicklung von Lernalgorithmen für das Lernen und verlustlose Speichern diverser lexikalischer/grammatikalischer Daten (z.B. Synonyme/Umschreibungen/Unter-/Übergeordnete Begriffe, Konjugations-/Deklinations-/Flektionsschemata) aus Text-Korpora sowie anderen Lexika (z.B. LFG, HPSG, WordNet, Cyc). Im Rahmen der Diplomarbeit erfand ich auch eine generative semantische Analyse für zusammengesetzte Wörter (Komposita) und Präpositionen, die Analyse der Bedeutung der Komposita durch jeweiliges Ableiten der Präpositionen, die logisch die Teile des Kompositums verbinden können (führte zu einem internationalen Konferenz-Papier (GAL) + Veröffentlichung im Wissenschaftsmagazin International Journal for Language Data Processing).
DS-Ansatz: Minimax Ansatz: Das Lernen der Minimierung der Worst-Case-Wahrscheinlichkeit (maximal) der Fehlklassifikation des künftigen lexikalischen Wissens, wodurch man eine minimale Spannbaum-Segmentierung erhält mit optimalen hybrid gewichtetem Score für die mögliche Bedeutung aller Datenelemente.
Studium (1992 – 1998): Abgeschlossenes Studium mit KI- und NLP-Schwerpunkt am DFKI (Dt. Forschungszentrum für Künstliche Intelligenz, einzige Dt. KI-Spitzenorganisation und größtes KI-Forschungszentrum der Welt, TU Kaiserslautern + Saarbrücken), Semantische Suche, NLP, Büroautomatisierung (OCR + ICR), Information Retrieval, KDD (Knowledge Discovery in Databases), BI.
Key Skills: NLP-Parsing mit formellen Grammatiken wie HPSG-, LFG-, Chart-Parsern, generatives Lexikon, MRS (Minimal-Recursion Semantics), Expertensysteme, Constraints, KI-Planungssysteme/Workflow-Management-Systeme (WMS), Business Intelligence (BI) mit relationalen und objektorientierten DBs, Büroautomatisierung (OCR + ICR), KDD (Knowledge Discovery in Databases).
Arbeiten:
  1. Diplomarbeit/DFKI + Startup: Entwicklung von Lernalgorithmen für das Lernen und verlustlose Speichern diverser lexikalischer/grammatikalischer Daten (z.B. Synonyme/Umschreibungen/Unter-/Übergeordnete Begriffe, Konjugations-/Deklinations-/Flektionsschemata) aus Text-Korpora sowie anderen Lexika (z.B. LFG, HPSG, WordNet, Cyc). Im Rahmen der Diplomarbeit erfand ich auch eine generative semantische Analyse für zusammengesetzte Wörter (Komposita) und Präpositionen, die Analyse der Bedeutung der Komposita durch jeweiliges Ableiten der Präpositionen, die logisch die Teile des Kompositums verbinden können (führte zu einem internationalen Konferenz-Papier (GAL) + Veröffentlichung im Wissenschaftsmagazin International Journal for Language Data Processing).
  2. DFKI (Dt. Forschungszentrum für KI), Projektarbeit: Statistische OCR-Postprocessing und Fehler-Reduktionskomponente auf Basis von Content-, (Geschäftsbrief-)Struktur-, Lage- und Segmentierungs-Daten für ICR (Intelligent Content Recognition) mit Student- und Gauß-Verteilung. Dies wurde von der DFKI-Ausgründung Insiders-Technologies in deren kommerzielle Produkte eingebaut.
DS-Ansatz: Nach-Klassifizierung von erkannten Zeichen nach OCR z.B. aufgrund der vertikalen Lage der Zeichen (z.B. die Unterscheidung zwischen o/O, i/I/l, j/J,, etc.): Bestimmung der unteren, der Basis-, der oberen und der obersten Begrenzungs-Linie unter der Annahme einer Gauß-Verteilung und Berechnung / Suche nach der optimale Trennlinie zwischen diesen Linien per Cluster-Analyse, durch die Minimierung des Integrals, d.h. der Fläche unter den Gauß-Kurven, die den falschen Linien zugeordnet sind. Alle Linien werden aus Clustern von Punkten berechnet. Gesamt: Minimax Ansatz: Minimierung der Worst-Case-Wahrscheinlichkeit (maximal) der Fehlklassifikation der zukünftigen Datenpunkte in Bezug auf die Dokumenten-Segmentierung; Erhalten eines minimaler Spannbaum-Segmentierung mit optimaler hybrid gewichteter Punktzahl/Score für die Dokumenten-Segmentierung.
  1. DFKI, Seminararbeit: Nichtlineare Planer, Score-Berechnung für Situationen und heuristische/statistische Strategien (Hill Climbing, Simulated Annealing, Dynamic Programming, etc.).
DS-Ansatz: Hill Climbing, Simulated Annealing, Dynamische Programmierung, etc. und wann welches Verfahren zu verwenden ist.
Themen meines KI/NLP-Studiums: Konnektionismus/Neuronale Netzwerke (CNN, Perzeptron, Kohonen-Karten,...), Einschränkungen/Constraints, Expertensysteme, Computerlinguistik/NLP (HPSG, LFG, MRS, Syntax, Semantik, Pragmatik, generatives Lexikon, lexikalische Regeln, Chart Parsing), Ontologien, Rahmenlogik/Frame Logic, DAML+OIL, Information Retrieval, semantische Suche, phonetische Suche, Spracherkennung (gehalten durch IBM ViaVoice Forscher), Planung, intelligentes Konfigurationsmanagement (mit Constraints), Robotik, Computer Vision, intelligentes Workflow-Management (mit Constraints), deduktive Logik, induktive Logik, deduktive/induktive/semantische Datenbanken, fallbasierte Logik, visuelle Krebserkennung mit CNN/RNNN/Kohonen-Karten, Statistik/stochastische/Ähnlichkeitsmaße, Aktivierungsfunktionen, Wissensrepräsentation und Inferenz (Schlußfolgerungen ziehen).

======================================================
Auftraggeber:
Großer Autokonzern
Von – bis:11/2018 - heute
Projekt:Autonomous Driving Projekt: Self-Driving Cars
Eigene Rolle:Architekt und Technical Lead Meta Data Management (MDM) & Ingest
Tätigkeit:
  1. Security-Konzept für Docker/Kubernetes/K8s: kubectl, Docker Authentication on Kubernetes pods, AuthN/AuthZ Methods wie UMA 2.0 (Federated Authorization for User-Managed Access), OpenID Connect mit keycloak über Translations, Kubernetes RBAC & User Impersonation, Volume Type Whitelisting, SELinux/seccomp/AppArmor, System Call Filter, Kubernetes Helm Sicherheitslimits & Verbesserungen, DEX vs Keycloak, SSSD PAM module (POSIX) für MapR Filesystem/HDFS, MapR Container Location Database (CLDB), etc.
  2. Konzeption der Microservices/APIs, u.A. für die Metadatenverwaltung, Machine Learning Parameter, ...
  3. Optimierung der Real-time Data Ingestion Verfahren für hochauflösende Self-Driving Car Video- und Sensor-Daten (TB-PB Datenmengen) in einen MapR Hadoop Datalake mit MapR-DB und Ceph Storage (Reliable Autonomic Distributed Object Store (RADOS)), etcd (distributed key value store) mit LoadBalancer (LB), Real-Time Monitoring mit Prometheus und Elastic/ELK.
  4. Konzeption der Einführung von Docker/Kubernetes für TensorFlow-MachineLearning: Vergleich mit der Alternative containerd mit GRPC, Docker Registries mit YAML für Kubernetes, Flannel (layer 3 network config). Kubernetes Tools: kubelet (primary node agent), kube-proxy, Container Runtime, (High Availability) HA endpoints, kubernetes-ha, Kube-apiserver, kubeadm, cluster autoscaler, scheduler, Helm (Kubernetes Package Manager, Microservices), Tiller (Helm server part), Ingress (load balancing, SSL termination, virtual hosting), kube-keepalived-vip (Kubernetes Virtual IP addresses using keepalived). Analyse von Kubernetes Failure Stories auf Risiken und Ableitung von Best Practices/Empfehlungen.
  5. Scheduling-Konzepte mit Airflow, LocalExecutor, Celery (Distributed Task Queue), CeleryExecutor, RabbitMQ, Dynamic Workflows mit DAGs/SubDAGs mit PythonOperator/BashOperator, upstream/downstream/X-COM, Backfill, Catchup, Kubeflow, Seldon Core.
  6. Parallelisierung/Optimierung/Skalieren/Wiederaufsetzen/Fortführen von Deep Learning und speziell TensorFlow-Pipelines und supervised Optimierungszyklen, u.A. mit Spark: Horovod (Training + HorovodEstimator für TensorFlow, Keras, and PyTorch), TensorFlowOnSpark, TensorBoards, TensorFrames.
  7. Auf maximale Performance und Durchsatz optimierte Apache Spark basierende Scheduling-Konzepte mit Alluxio-Caching, Data-Locality-Optimierung und Minimierung datenintensiver Operationen: Custom Spark Scheduler/Spark Task/DAG/SubDAG Combiner für Dynamic Workflows (In-Memory-Optimierungen), Deep Learning Pipelines, Horovod, TensorFlowOnSpark, TensorBoards, TensorFrames, Data Lineage Optimierungen.
  8. Review aller Security-Aspekte: Airflow, Kubernetes, Docker, Zeppelin, Spark, Java-Sicherheit mit Apache Shiro/Spring Security, sichere Speicherung von Anmeldeinformationen im Unix-Dateisystem, Github, Soft/Hard PSE (Personal Security Environment) mit z.B. SSO (Single Sign On with CA SiteMinder, PAI, OpenId Connect), CyberArk PW Vault API, SSO oder GPG + Ansible Vault, etc.
  9. Hilfe/Review bei Angular-basierten Visualisierungen, insbesondere für Grafana (zunächst in Angular, dann in React weil Grafana von Angular auf React migriert wurde).
  10. Recherche/Analyse/Erweiterung aktueller Ideen/Tools zu technischen Knackpunkten im Projekt und Vorschlag der Lösungen samt passenden Autonomous-Driving-Use-Cases an die relevanten Ansprechpartner in den Teilprojekten:
    1. NLP (Natural Language Processing) / Computerlinguistik Forschung & Auswertung: Analysieren/Parsen natürlicher Szenenbilder zusammen mit dem textuellen Parsen von Bildunterschriften/Beschreibungen aus dem Internet zum Trainieren von Bildverarbeitungsmodellen (Stanford CoreNLP-Ansatz); Klassifizieren von Trouble Tickets / Texten in Kategorien/Aktualitäten; Wartung / Gelernte Lektionen: Analyse textueller Berichte von Technikern über IT-/Fahrprobleme und autonome Fahrtenschwierigkeiten (falsche Klassifizierungen/Reaktionen) für Erkenntnisse/Feedbacks auf NLP-Ebene; Generieren von a) Beschreibungen für Fahrer, welche Art von Trainings-Situationen im Straßenverkehr anzustreben sind, b) Um welche Art von Fehlerursachen es sich bei gegebenen Symptomen handeln könnte als Liste oder Text.
Tools/Algorithmen: OpenAI GPT-2 (Generative Pre-trained Transformer), Facebook XLM (Cross-lingual Language Model Pretraining), Facebook PyText (NLP Modeling Framework, auf PyTorch), Google BERT (Bidirectional Encoder Representations from Transformers), Kombinierte Multi-Task-Modell-NLP, Vortraining kompletter (Sprach-/Tiefenlernen) Modelle mit hierarchischen Darstellungen, Aufmerksamkeitsmodelle, DLNLP (Deep Learning NLP: Embed, Encode, Attend, Predict), Hierarchical Multi-Task Learning Model (HMTL), semi-supervised Lernalgorithmen zur Erstellung von Proxy-Labels auf unmarkierten Daten, BiLSTM, SalesForce MetaMind-Ansatz, DeepMind, Deep Transfer Learning for NLP, vortrainierte Sprachmodelle, Worteinbettungen / Worttaschen, Sequenz-zu-Sequenz-Modelle, Gedächtnis-basierte Netzwerke, Gegensätzliches Lernen, Verstärkungslernen, semantische Rollenkennzeichnung, Repräsentationslernen, Textklassifizierung mit TensorFlow Estimatoren, word2vec, Vektor-Raum-Modell/Mapping von Features zu Einbettungen, Skip-Grammen, Seq2seq Encoder-Decoder, ULM-FiT, ELMo, OpenAI Transformer / GPT, Google BERT, BERT, Transfer Learning, OpenAI Transformer, spaCy + Cython zur Beschleunigung, OpenNMT (Neural Machine Translation), AllenNLP (auf PyTorch), OpenNLP, Verstärkungslernen zum Erlernen korrekter Klassifizierungen/Labelzuweisungen/Fragen & Antworten, tief latente Variablenmodelle, Visual Commonsense Season Reasoning, Modell-agnostisches Meta-Learning (MAML), Multi-Hop-Denken, Aufmerksamkeitsmasken für (Self-Attention) GANs (SAGAN).
    1. KI/AI/Data Science/Big Data: Algorithmen und Tools: LSTM vs. GRU, Feast AI Feature Store, K8s Sidecar Injector, TensorFlow 2.0 (Vorteile von Update/Migration), Tensor Comprehensions, Style GANs, Neural Ordinary Differential Equations, Visual Common Sense Reasoning, Deep Learning for Self-Driving Cars / Logically/temporally consistent virtual 3D city generation, Deep Labelling for Semantic Image Segmentation mit Keras/TensorFlow, Design Patterns for Deep Learning Architectures, DeepMind (Kapitan, Scalable Agent, Learning to Learn, TF Reinforcement Learning agents), Uber’s QALM (QoS Load Management), Fusion.js (JS framework supporting React, Redux & pre-configured optimized boilerplate, hot module reloading, data-aware server-side rendering, bundle splitting, plugin-architecture, observability, I18n), Horovod (distributed training framework for TensorFlow, Keras, PyTorch), Ludwig (train and test deep learning models without coding), AresDB (Uber's GPU-powered  real-time analytics engine), Uber‘s Sparse Blocks Network (SBNet, TensorFlow algorithm), Google Dopamine reinforcement learning framework based on TensorFlow, Kubernetes Operator für Apache Spark, FastAI Deep Learning, Polygon-RNN++, Flow Framework: Project to Product Agile Process, IntelAI OpenVINO (inference serving component for AI models), IntelAI Nauta (distributed computing environment for running DL model training), TensorFlow Extended (TFX), Salesforce Einstein TransmogrifAI (machine learning automation with AutoML), OpenCV (Open Computer Vision Library), GluonCV.
    2. Data Science-Beratung sowie Management-und Konvertierungskonzepte für Machine-Learning-Modelle mit ONNX (Open Neural Network Exchange : High-performance optimizer and inference engine for machine learning models and converter between TensorFlow, CNTK, Caffe2, Theano, PyTorch, Chainer formats).

DS-Ansatz (Data Science)TensorFlow für Bild-/Video-Analyse: Labeling und überwachtes Lernen zur korrekten Klassifizierung, verteiltes Hyper-Parameter-Tuning mit TensorFlow, Keras. ML Debugging/Erklärbare KI im Kontext von LIME, SHAP, partielle Abhängigkeitsdiagramme[Modellleckagen, Entscheidungserklärungen in if-Anweisungen, ....]; Modellspeicherung in PMML mit OpenScoring.io und HBase/MapR-DB + Apache Phoenix.
Bibliotheken / ToolsMapR Hadoop, MapR-DB, MapR Control System (MCS) , MapR POSIX Clients, MapR expandaudit, Mesos, Hive, Ceph, RADOS, TensorFlow, Apache Spark, Alluxio, TensorFlowOnSpark, Docker, Kubernetes, Airflow, Kubeflow, CeleryExecutor, Jupyter, Zeppelin, PyTorch, MXNet, Chainer, Keras, Horovod, XGBoost, Keras, PyTorch, RabbitMQ, ONNX, Zephyr (Continuous Testing Agility), Red Hat OpenShift, Elastic/ElasticSearch, MS Azure Hybrid Cloud, , Kafka, Kafka, Kafka-REST Proxy, Confluent, Ansible, migriert nach SaltStack, OpenTSDB, CollectD, Python 3.x., DaSense 2&3, DaSense GPU Scheduler, CNTLM, Samba, Nginx, Grafana, Jenkins, Nagios, Scrum mit Elementen aus dem Flow-Framework (Project to Product).



Auftraggeber:HSBC Trinkaus & Burkhard AG / HSBC Deutschland, größte Bank Europas, World’s Best Bank 2017 nach EuroMoney
Von – bis:12/2017 – 11/2018
Projekt:Aufbau des SOCs (Security Operations Centers) sowie die engere Verzahnung/Integration der Tools, Vulnerability Management, Security Assessments/Bewertungen/Security-Architektur und Vorgehens-Empfehlungen, insbesondere bei der Einführung von Blockchain-Technologie (We.Trade auf R3/Corda für Zahlungen + Voltron auf HyperLedger für Handels-Dokumente + Utility Settlement Coin (USC)) sowie SAP für Kernbanking (Deposits Management, Collateral Management, Loans Management, Financial Supply Chain Management, SAP Bank Analyzer) bei gleichzeitiger Betrachtung der DSGVO-/GDPR-Anforderungen.
Eigene Rolle:Full Stack IT Architekt: Applikationen, Netzwerk, Security/DSGVO, APIs, Cloud, Blockchain, KI/AI
Tätigkeit:
  1. Konzeption der Security-Maßnahmen für das neue SAP Core Banking System als Security Architect.
  2. Überprüfung von Use Cases auf Relevanz für DSGVO/Datenschutz und Erstellung entsprechender Bewertungen, Ausfüllen von DSGVO-Formularen.
  3. IAM (Identity and Access Management): SAP NetWeaver Identity Management (IdM) eingeführt mit SAML, OAuth, OpenId Connect, Kerberos; Konsolidierung der IAM-/IdM-Funktionalität, die vorher über verschiedene Technologie-Inseln verteilt waren wie LDAP, Active Directory (AD) Federation Services (ADFS), RACF, Oracle Enterprise Directory Server (OEDS), Lotus Notes Domino, etc.
  4. Vorschlag von abgeleiteten IT-Security-Architektur- und DSGVO-Maßnahmen auf Basis der vorhandenen Grob-Architektur, Konzept für Privileged Account Management (PAM) und weitergehende Sicherheits-Maßnahmen.
  5. Zukunftsvision der SOC-Architektur und Konzeption ihrer Komponentenarchitektur - mit möglichst vielen Open-Source-Tools, um Kosten zu sparen und neuesten KI/AI (Künstliche/Artificial Intelligence) und Machine Learning Frameworks: Spark + MLLib, XGBoost, ….
  6. (Weiterer) Aufbau des SOCs (Security Operations Center) als Architekt/PM mit am Ende ca. 60 Security-Tools. Davon wurden ca. 15 Tools neu eingeführt. Deren Einführung sowie die Integration und Automatisierung eines Großteils der Tools habe ich insbesondere konzipiert und in Teilen programmiert: Automatisierte Echtzeit-Datenflüsse und Reduktion von False-Positives.
  7. Red-Blue-Team Testing / Penetration Testing / PenTesting und Verteidigung, insbesondere bzgl. der Verwundbarkeit gegenüber aktuellen Exploits und den Indikatoren im SIEM und den Folgen/Risiken für die IT und der Optimierung der möglichst schnellen Erkennung mit wenigen False Positives.
  8. Evaluierung der Risk Management Frameworks IRAM2, FAIR, OCTAVE, COSO gegen den MaRisk-Standard von 2017 und BAIT (Bankaufsichtlichen Anforderungen an die IT).
  9. Erweiterung und Umsetzung von Vulnerability Management, Patch Management und Security-Standards-Compliance sowie Dokumentation dazugehöriger Risiken.
  10. Patching-/Risk-Projektmanager Germany bzgl. Meltdown/Spectre (CPU Bugs).
  11. Mitarbeit bzgl. IT-Sicherheit an der R3/Corda Blockchain Implementierung der HSBC in Kotlin mit über 100 anderen Banken und Vorbereitung der Herausgabe des Utility Settlement Coins (USC) der Großbanken sowie der Anbindung der Big Data basierenden Bank-eigenen Fraud Detection Lösung, z.B. bzgl. Security-Anbindung per BlueTalon + Ranger.
  12. Integration von Security-Systemen per Serverless-Architektur über Google Cloud Functions per REST APIs mit Go: Automatisierte Integration von Configuration Management, Nessus- + Tripwire-Security Scans (Windows/Linux Datenbanken: Verwundbarkeiten und Compliance-Einstellungen) sowie der datenbankbasierten Auswertung der Scans (manuelle Gewichtungen) und Weiterleitung/Eskalation der Ergebnisse.
  13. Mitentwicklung von Mobile-App- und Cloud Security Standards, insbesondere für Hybrid Clouds mit dem Google Cloud Stack, z.B. der Software-Defined Perimeter Ansatz.
  14. Architektur obiger APIs nach Open Banking Standard mit Mulesoft AnyPoint Platform (API Gateway, App execution, API Repository & Portal, API Designer, Runtime Manager, CloudHub, Private Cloud, AnyPoint Studio).
  15. Beratung der Architekten und Entwickler-Teams bzgl. sicherer Konzeption/Entwicklung, sicherer Anbindung von Security Libraries (z.B. Spring Security, SAML, OAuth, LDAP, OpenId Connect), Patchen von Library-Verwundbarkeiten (Vermeiden/Minimieren der Verwendung von anfälligen Versionen: Lösungen und Workarounds) und Security Code-Review mit Tool-Unterstützung (ConQAT + Teamscale von CQSE, Support Query Framework (SQF) und Code Inspector von SAP (ABAP), Micro Focus Fortify, LGTM, Semmle, FindBugs, PMD, SonarQube, Checkstyle, etc.) im Rahmen von TQE (Total Quality Engineering).
  16. Beratung bei der Weiterentwicklung der Asset Management und Configuration Management Datenbanken/Systeme um priorisierte Risiko- und Gegenmaßnahmen-Einschätzung in Richtung des statistischen Common Criteria Ansatzes.
  17. Internal Reviews/Assessments, Erstellen von Management Self-Identified Issue (MSII) Berichten als Vorbereitung für offizielle Reviews/Assessments.
  18. Business Impact Analysis (BIA) und Global Application Security Risk Assessments (GASRA).
  19. Business Process Definition / Optimization / Re-Engineering: Network Based Intrusion Prevention (NIPS), Vulnerability Management, Privileged Access Management, Testing & Patching, Anlegen/Anpassen von Beantragungs-/Entziehungs- und Überwachungsprozes-sen mit Neocase Advanced BPM Suite / NEO Process Manager.
  20. Security-Architektur für einen Amazon-Cloud- und Serverless-PoC: AWS, Fargate, S3, EC2, VPC (Virtual Private Cloud), IAM, RDS, RedShift, Aurora, DynamoDB (Rel. DBs), Neptune (Graph DB), ElastiCache (In-Mem-DB), Elastic Beanstalk (Orchestration Srv), CloudTrail (Sec. Log), STS (Secure Token Srv), EKS (Elastic Kubernetes Service), EBS (Elastic Block Store), OpsWorks (Config Mgmt), SQS (Simple Queue Srv), CloudWatch (Billing/Metrics), Docker, Kubernetes, Kubeless, Go.
  21. Security-Architektur für PoCs mit Blockchain for trade (We.Trade, Voltron, R3/Corda), Biocatch, Microplatforms, Eclipse Microprofile (Hammok, Red Hat Wildfly Swarm, Open Liberty/WebSphere Liberty), JWT, OpenTracing, MicroNaut, ThreatMetrix, UNSilo, Skytree, TidalScale, DataRobot, data iku, Ayasdi (AML), Quantexa, Seldon.io, gVisor.
  22. Unterstützung bei der Einführung agiler Prozesse: Design Thinking (Empathie-Maps, Personas, User Profile Canvas, Value Proposition Canvas, Business Model Canvas, Business Ecosystem Canvas, Customer Journeys, HOOK (Trigger, Action, Variable Reward, Investment), SCAMPER (Substitute, Combine, Adjust, Modify, Put to other uses, Eliminate, Rearrange), MVP, MVE (Minimum Viable Ecosystem), Virtuous Loops, Systems Thinking, Business Ecosystem Design, Lean Canvas, NABC (Needs Approach Benefits Competition), SWOT) in Kombination mit DAD (Disciplined Agile Delivery) und SAFe (Scaled Agile Framework) – insbesondere Coaching und Halten von Präsentationen zu den Risiken agiler Verfahren – u.A. durch das Entfallen der Architektur-Phase (siehe meine Social Media Accounts), Mit-Einführen von WorkHacks (= LifeHacks für den Beruf).
  23. Konzeption + (Teil-)Implementierung einer automatisierten Microservice/Serverless System-Security- und Vulnerability-Assessment und Reporting-Komponente in Python3 und JavaScript (mit PhantomJS, CasperJS, Bootstrap, a2ps), die automatisiert HTML- und PDF-Reports erzeugte aus Statistical Common Criteria Bewertungsergebnissen, Nessus- + Tripwire-Scan-Ergebnissen, CMDB-Infos (Config Mgmt DB namens ITDoku) etc. mit Integration zu diversen Systemen (Lotus Notes, CMDB, Excel-Dateien, Oracle-DB, CyberArk Password Vault, Inventory-Systemen zum Check der Kritikalität (BIA/GASRA), Installationsstatus von Security-Tools, etc.) per REST APIs, SysCalls und OAuth.
  24. Insgesamt ca. 50 Verbesserungsvorschläge unterbreitet/umgesetzt, vor allem zur Verbesserung des SOCs / der effizienten Erkennung, Priorisierung und Beseitigung von Risiken/Angriffen.
  25. Erstellung/Erweiterung/Schärfung von ca. 150 QRadar SIEM Use Cases für zielgerichteteres Security-Monitoring mit weniger False Positives oder weniger manuellem Nachrecherche-Bedarf bei Alerts (Minimierung der manuellen Aufwände).
  26. SIEM-Alternativen: Evaluation von
    1. ElasticSearch + Norikra Schemaless Stream Processing + Esper CEP (Complex Event Processing) + Apache Nifi + Kafka + Fluentd für SIEM Use Cases/Alerting, Datenextraktion aus Protokollen per WireShark-Plugins (z.B. bzgl. SMBv1 + v2 Exploits [EternalRomance, EternalBlue, EternalChampion, WannaCry]),
    2. Apache Metron (ex: Cisco OpenSOC) + Blitz Incident Response + Apache Nifi + Hadoop + Apache Solr/HDP Search + Ranger + Atlas, Technologie-Workshops. Konzeptionen zu:
      1. Dokumenten-Id-Vergabe und expliziter Verteilung der Dokumente auf Shards/Replicas und dessen Tracking.
      2. Parallelisiertem SolrJ-Client optimiert auf Antwort-Geschwindigkeit.
      3. Loadbalancer-Switching-Logik.
      4. Schutz gegen bösartige Ambari-Administratoren.
      5. Integration der Lösung in das Single Sign On (SSO) Konzept mit Identity & Access Management per LDAP, SASL, explicit TLS.
  27. Konzeption/Implementierung eines Apache Spark + MLlib + Kafka basierenden Data Science und Machine Learning Systems zur Erkennung von Incidents/Malware/Netzwerk Anomalien mit H2O.ai.

DS-Ansatz (Data Science) zur Erkennung von Incidents/Malware/Netzwerk-AnomalienEine Mischung aus Hauptkomponentenanalyse, Nearest Neighbor Methoden, neuronale Netze, Zeitreihenanalyse, Anomalie-Erkennung, Assoziationsanalyse, Maximum-Likelihood-Schätzer, Random Forest, Gradient Boosting (GBM, xgboost), Cubist (Erweiterung von Quinlan’s M5 model tree), C4.5, Assoziationsanalyse, (Nicht)lineare Regression, Multiple Regression, Apriori-Analyse, Überwachte Klassifizierung, Link-Analyse-Netzwerke.
Bibliotheken / ToolsSAP Basis, FI/CO, DM, CM, LM, FSCM, FS, FS-BA, SAP NetWeaver Iden-tity Management (IdM), IBM FileNet, SAP Business Objects, Mulesoft AnyPoint Platform (API Gateway, App execution, API Repository & Por-tal, API Designer, Runtime Manager, CloudHub, Private Cloud, AnyPoint Studio), Symantec DCS, Symantec DLP, Symantec PGP Server, Syman-tec SSLVA, TrendMicro Deep Discovery + Antivirus (AV), Cisco Router, ASA, Switches, CheckPoint Firewalls/IDS/IPS, Barracuda WAF, Windows & SAP PKI & IAM, IBM QRadar, IBM Resilient, IBM InfoSphere Guar-dium (Monitoring: DB, etc.), IBM Vanguard, IBM RACF, IBM EventAction, Nessus Vulnerability-Scanner, ForeScout (vulnerable IoT), Proofpoint (E-Mail Security), CrowdStrike (Endpoint Protection), McAfee (Antivirus + HIPS + Drive Encryption + E-Mail Gateway + ePolicy Orchestrator ePO), Skyhigh (Web Browser isolated in the Cloud, Secure Cloud Services), MenloSecurity (DLP, Absichern von E-Mail- und WebLinks), Cisco Open DNS, BlueCoat Proxy/SSL Decryption/AV, CyberArk Password Vault + Privileged Threat Analytics (PTA), Tufin (Network Security Policy + Firewall Management), Ivanti Application Control (ex: AppSense), En-case Endpoint Security/Forensics, Lumension Endpoint Security, Micro-soft Baseline Security Analyzer (MBSA), RSA enVision, SCCM Windows Compliance, Trustwave DbProtect, DB SAT, Avecto Defendpoint, Centrify DirectAudit, Dark Trace (UEBA: User & Entity Behavior Analytics / NGAV: Next-generation antivirus platforms / DER: Endpoint Detection and Response), DFLabs (SOAR: security orchestration, automation and response), AutoSploit, MetaSploit, Cuckoo Malware Analysis (in virt. Sandbox), MS Visual Studio, Eclipse + Java 1.8, Keycloak, Snort, Python 3.7, p0f, Cluster SSH, Open Workbench, viele Open Source Tools (Fuz-zer, Exploits, Utilities, …), Vizolution, Google Cloud Platform (GCP: Cloud Functions/Datastore/Storage, Cloud Pub/Sub, Endpoints, RSocket, Tools: gVisor (User Space Kernel), Apigee, Cloud Dataflow, BigTable, BigQuery (DWH), BigQuery ML (BQML), Firestore, Firebase, Memo-rystore, Datastore, Cloud Spanner, Cloud Launcher, Cloud SQL, BigCom-pute, Cloud ML Engine, Apache Beam, bdutil, Dataproc (Managed Hadoop), Stackdriver (Systems Management), AutoML, Google Kubernetes Engine (GKE)), Apache Spark + MLlib + Kafka, H2O.ai, We.Trade, Volt-ron, R3/Corda), Biocatch, Microplatforms, Eclipse Microprofile (Ham-mok, Red Hat Wildfly Swarm, Open Liberty/WebSphere Liberty), JWT, OpenTracing, MicroNaut, ThreatMetrix, UNSilo, Skytree, TidalScale, Da-taRobot, data iku, Ayasdi (AML), Quantexa, Seldon.io, gVisor.



Auftraggeber:Schwarz-Gruppe (Lidl & Kaufland), größter Europäischer Handelskonzern, BI & Analytik
Von – bis:09/2017 – 12/2017
Projekt:Plattform- und Umgebungs-Aufbau für diverse Predictive-Analytics Teilprojekte (insbesondere von Marketing-Effekten und Supply-Chain-Prognosen bzgl. benötigten Mengen/Preisen etc.)
Eigene Rolle:Coach: Big Data Architektur, Data Science, Test Management
Tätigkeit:
  1. Zwecks Einarbeitung & Coaching-Grundlage: Erhebung der Ist-Situation bzgl. Tools, Algorithmen und IT-Umgebungen; Mitarbeit bei der Erstellung von Ab Initio Graphen/Lineages als ETL-Pipelines unter Integration von Teradata BTEQs/ActiveBatch/SQL, R, Python, Spark, Hive, SAP, MicroStrategy.
  2. Big Data und Data Science Architekturberatung: R on Spark mit SparklyR vs. SparkR, Hive/Beeline Query Optimierung, Integration mit Teradata QueryGrid/Teradata Connector for Hadoop (basierend auf Sqoop).
  3. Konzeption/Entwicklung von AbInitio ETL-Pipelines mit GDE/TRMC/EME, Express>It (BRE), Conduct>It (CC), Query>It, Metadata Hub (EME).
  4. Vorschlag und Mit-Auswahl von BI & Analytics Use Cases: Promotions (Angebote/Preisveränderungen (PV)), Dynamic Pricing, Backschema, Category Management, Palettenfaktor, Kollisortierung, Shopping Missions, Einkaufs-Planung, Logistik-Planung, Rücksende-/Rückläufer-/Remittenden-Planung.
  5. Mitarbeit im Predictive Modelling von Marketing- und Logistik-Prozessen und der Vorhersage des Effektes von Sonderangeboten und diversen Werbemaßnahmen.
  6. Beratung zur Auswahl eines Workflow-Management-Tools Oozie, ActiveBatch, Azkaban (LinkedIn), Airflow (Airbnb), Scripting.
  7. Berechtigungskonzept mit Apache Ranger, Rechte-Datenbank & LDAP für Hortonworks Hadoop miterstellt.
  8. Erstellung von Cross-Platform Packaging-, Versioning-, Deployment- und Dependency-Management-Konzepten für Python, R, Big Data (Spark, Hive, etc.), Teradata, SAP, Ab Initio, MicroStrategy mit Conda/Anaconda, Python, sbt, Java 9 Platform Module System (JPMS) = Project Jigsaw, etc.
  9. Virtualisierungskonzepte erstellt für alle Tools mit VMware, Docker, Rancher und Kubernetes, einschließlich Netzwerkkonnektivität, Debugging, Tracing und Monitoring-Funktionen.
  10. Erstellung eines 400-seitigen Test-Management-Konzepts incl. ETL- und BI-Testing mit IT-Security für 6 Test-Umgebungen sowie für Python, R, Big Data (Spark, Hive, etc.), Teradata, SAP, Ab Initio, MicroStrategy, Continuous Integration/Deployment mit Jenkins und Sonar(Qube).
DS-Ansatz (Data Science): Random Forest, Gradient Boosting (GBM, xgboost), Cubist (Erweiterung von Quinlan’s M5 model tree), Zeitreihenanalyse, Assoziationsanalyse, (Non-)Linear Regression, Multiple Regression, Anomalie-Erkennung, Apriori-Analyse, Warenkorbanalyse, Überwachte Klassifizierung, Link-Analyse-Netzwerke, Maximum-Likelihood-Schätzer, klassische und mehrstufige Verfahren zur Betrugserkennung (siehe gesonderten Abschnitt), ML-Debugging/Explainable AI im Kontext von LIME, SHAP, partial dependency plots [model leakages, decision explanations in if-statements, …]; Model-Storage in PMML mit angepasstem OpenScoring.io (mit Spring) und Apache Phoenix.
Bibliotheken / ToolsRed Hat OpenShift, Docker, Kubernetes, Rancher, R, Big Data (Spark, Hive, Oozie, etc.), Teradata, SAP CAR (Customer Activity Repository 2.0), SAP HANA, SAP BW (Business information Warehouse), SAP BO (Business Objects Business Intelligence), Bex Analyzer, Analysis for Office (AfO), Ab Initio (GDE/TRMC/EME, Express>It (BRE), Conduct>It (CC), Query>It, Metadata Hub (EME)), MicroStrategy, QlikView, MS Visio, Java 9 mit Java Platform Module System (JPMS) = Project Jig-saw, maven, Risk-Based Testing, Apache Ranger, Python: Airflow, Nose2 test suite, Egg packaging, SparkR/SparklyR, webMethods (ESB der Software AG), Scrum, SoS (Scrum of Scrums), LeSS (Large Scale Scrum).



Auftraggeber:Avira, Tettnang, München, Homeoffice
Von – bis:06/2017 – 09/2017
Projekt:Marketing-, Produkt- und Security-Analytics mit Apache Spark und Scala
Eigene Rolle:Coach: Big Data Architektur & Data Science
Tätigkeit:
  1. Konzeption und Implementierung von Inspectrum, einem Big Data & Apache Spark Data-Flow-Instrumentation & Configuration Framework in Scala: Über JSON/HOCON (Human-Optimized Config Object Notation) Konfigurationsdateien konnten am Ende beliebige Datenflüsse über Spark und sein Ökosystem (incl. Umsystemen) konfiguriert statt programmiert werden mit erheblicher Zeitersparnis. Anbindungen wurden konzipiert für Hive, HBase, Couchbase sowie eine Daten-Filter-Komponente und Virtualisierungen der Komponenten mit Docker, Kubernetes, Rancher.
  2. Architekturberatung bzgl. Real-time Use Cases und deren Umsetzung, Datenbanken, Data Science Algorithmen; Architektur von HBase-Datenstrukturen; Pro-Contra-Beratung zum Einsatz von Apache/Cloudera Kudu.
  3. Natural Language Processing (NLP): Analyse von Kunden-Feedback/Stimmungen mit spacy.io, Apache OpenNLP (Natural Language Processing), NLTK (Natural Language ToolKit: tagging/chunk parsing), Apache UIMA (Unstructured Information Management architecture/applications).
  4. Data Science Beratung: Vorschlag von Verfahren zur Informationsgewinnen fürs Marketing, für Produkt-Analyse und Security-Analysen sowie für den Avira Boot Optimizer. Vorschlag von Algorithmen für die Nutzung/Analyse der gewonnenen Infos, etwa durch das In-Product-Messaging, den Antivirus, etc.
  5. Datenschutz Grundverordnung (EU-DSGVO) / General Data Protection Regulation (EU-GDPR) (Regulation (EU) 2016/679): Beratung zur Legalität der Verbindung von Nutzungs- und Kundendaten und deren Nutzung zu Marketing-Zwecken.
  6. Integration von SailPoint IAM mit Big Data über Apache Sentry.
DS-Ansatz (Data Science): Zeitreihenanalyse, Anomalie-Erkennung, Apriori-Analyse, Überwachte Klassifizierung, Gradient Boosting (xgboost), Assoziationsanalyse, Abhängigkeitsanalyse zur Optimierung der Boot-Zeiten, Maximum-Likelihood-Schätzer bzgl. Marketing-Maßnahmen-Effizienz und Konvertierung vom Free-Antivirus-Nutzer zum zahlenden Kunden.
Bibliotheken / ToolsOpenShift, Cloudera Hadoop, Apache Spark, Couchbase, HBase, R, Python, SparkR, CentOS, Intellij IDEA, git, Github, Docker, Kubernetes, Rancher, Apache Sentry, Ubuntu, Scrum-Prozess.



Auftraggeber:BNP Paribas Personal Investors (Consorsbank, DAB), Nürnberg, München, Homeoffice, World’s Best Bank 2016 nach EuroMoney
Von – bis:05/2017-08/2017
Projekt:Make or Buy Entscheidungs-Vorbereitung im Marketing bzgl. einer In-House Customer Intelligence (CI) und Programmatic Advertising Lösung für Cross-Selling über verschiedene Kunden-Touchpoints hinweg, Dynamic Offering, Net Promoter Score (NPS) Optimierung und Data-driven Sales (DDS) per Data Management Platform (DMP).
Eigene Rolle:Coach: Big Data Architektur, Data Science Aspekte sowie Use-Case-Bewertungen
Tätigkeit:
  1. Marketing-Strategie Beratung per Design Thinking mit Customer Journey Mapping und Dokumentation der Kunden-Firmen-Touchpoints bzw. Interaktionen, Vermittlung des relevanten Wissens zu den neuesten Programmatic Marketing Ansätzen und den entsprechenden Data Science Grundlagen. Einführung in Customer Data Platforms (CDPs) und Marketing Automation Platforms (MAP). SWAT-Diskussionen (Strengths/Weaknesses/Opportunities/Threats) dazu initiiert und geleitet.
  2. Recherche von möglichen Anbietern in obigen Bereichen mit Schwerpunkt auf Customer Intelligence (CI), Customer Data Platforms (CDPs) und Marketing Automation Platforms (MAP) und Kontaktieren der Anbieter: IBM Interact, Oracle Real-Time Decisioning (RTD), SAS Customer Decision Hub, Pega Customer Decision Hub, Adobe Marketing Suite/Cloud, Prudsys, SC-Networks Evalanche, PIA/Dymatrix DynaCampaign, DynaMine, CrossSell, ComArch, FIS Global, DMP-Produkte (AdForm, The Adex, Annalect, Otto, Xaxis Turbine, Acxiom, ...).
  3. Erarbeitung der Use-Cases nach Use Case 2.0 Ansatz (inclusive MVP – Minimal Viable Product) mit dem Marketing-Fachteam (besonderer Fokus auf mögliche Echtzeit-Anforderungen/Use Cases) und Bewertung der möglichen Cash Flows sowie der verschiedenen KPIs wie ROI, NPV (Net Present Value), IRR (Internal Rate of Return), WSJF Verspätungskosten (Weighted Shortest Job First), NPS (Net Promoter Score), NBI (Net Banking Income). Anschließende Einführung von weiteren Lean-Startup-Prinzipien sowie Microservices, Evolutionary Architecture, Mobile App Anbindung und passendem Versioning.
  4. Datenschutz Grundverordnung (EU-DSGVO) / General Data Protection Regulation (EU-GDPR) (Regulation (EU) 2016/679): Beratung zur Legalität der Verbindung von Nutzungs- und Kundendaten und deren Nutzung zu Marketing-Zwecken.
  5. Erstellung einer Baseline-Hadoop-Architektur mit Aufwands-Schätzungen als mögliche Make-Lösung auf Basis von Apache Spark mit Streaming, Alluxio Caching, QBit Microservices, Aerospike DB, Cassandra DB, jBPM, Drools, Oryx 2, WEKA, MOA, Sqoop 1/2, SAS. Diese diente dann auch dem Einkauf zur Preis-Verhandlung.
  6. Beratung zu möglichen Data Science Algorithmen rund um das KNIME-System zur Kundensegmentierung und der Ableitung von Produkt- bzw. Marketing-relevanten Affinitäten/möglichen Kundeninteressen und Kundenpfaden: DynaMine, Gradient Boosting (xgboost), Nichtlineare Regression, Random Forests, C4.5, etc.
  7. Beratung des Parallelprojekts „Corporate Data Hub“ (Digital Transformation / Digital eXperience (DX) Plattform) auf Basis von Spark, Cassandra DB und PostgreSQL, insbesondere bzgl. Anbindungs-Möglichkeiten mit den Marketing-Lösungen und wie diese als PoC (Proof of Concept) für den Data Hub verwendet werden können.
  8. Konzeption einer Dynamic Offering Erweiterung HintLog für Dymatrix DynaCampaign: Mit minimalem Aufwand konnten so alle Teilnehmer an Bonus- oder Marketing-Programmen Nachrichten erhalten, wenn irgendwelche Fehler auftauchten oder sie aufgrund von Detail-Regelungen Gefahr liefen, aus dem Programm herauszufallen: Kunden haben dann meist Nachfristen bekommen und so konnte durch das Vermeiden ärgerlicher Situation der NPV-Wert (sprich: die Kundenzufriedenheit) stark gesteigert werden.
  9. Review der bestehenden BPM-Modelle in Camunda und Erweiterung dieser Modelle in Camunda um neue Marketing/Kampagnen Use Cases.
  10. Konzept erstellt zum semantischen Analysieren und Steuern von Marketing-Kampagnen nach z.B. Kundeninteressen, Kundensituationen, aktuellen Markttendenzen sowie Firmen-Interessen, z.B. als kombinierte/konzertierte Rabattaktionen über verschiedene Teile des Angebots hinweg oder um übergeordnete Marketing-Aussagen in untergeordneten Aktionen immer wieder zu re-iterieren und insgesamt Konsistenz und Stringenz in den Aussagen zu erreichen. Erkannte Kunden-Sitationen/Segmente, Interessen und Unterstützungsbedarf kann so möglichst zielgenau eingesetzt werden, so dass es von den Kunden als hilfreich geschätzt wird und später aus einer Vertrauensbasis heraus (Produkt-/Service-)Empfehlungen gegeben werden können.
  11. Natural Language Processing (NLP): Analyse von Kunden-Feedback/Stimmungen mit spacy.io in Python (Net Promoter Score (NPS) Erhebung und Verbesserung).
  12. Mitarbeit beim Digital David Projekt als Technologie- und NLP-Berater, der Erstellung eines Chatbots mit IBM Watson Technologie (mittlerweile bei consorsbank.de im Kundenbereich online): Vision: Chatbot der alle Invest- und Banking-Präferenzen der Kunden kennt incl. Konto-, Depot- und WKN-/ISIN-Nummern mit Charts/Trends/Abhängigkeiten und alle Suchen nach Anlagemöglichkeiten durchführt (mit RoboAdvisor im Hintergrund) und daher hohe Kundenbindung und hohe Verkaufskennzahlen erzielt. Meine Arbeit: Analyse der zu erwartenden Text-Dialog-Scripting Aufwände (aufgrund der technisch veralteten Funktionalitäten für Chatbot-Entwickler) und der Total Cost of Ownership (TCO) der IBM-Watson-Lösung und Gegenüberstellung mit einer neuen DLNLP-Architektur (Deep Learning Natural Language Processing) basierend auf Open Source zwecks Preisverhandlungen der Beschaffung: Elemente meiner Open Source Chatbot-Architektur mit DLNLP Tools (Deep Learning Natural Language Processing): Seq2seq, word2vec, ULM-FiT, ELMo, OpenAI Transformer / GPT, Transfer Learning, OpenAI Transformer, spaCy, Stanford CoreNLP, AllenNLP und Virtualisierung mit Docker/Kubernetes zum Training in der Cloud.
DS-Ansatz (Data Science): Zeitreihenanalyse, Anomalie-Erkennung, Apriori-Analyse, Überwachte Klassifizierung,  Assoziationsanalyse, Maximum-Likelihood-Schätzer, Kunden-Segmentierungstechniken z.B. nach Personas mit KNIME, DynaMine, Gradient Boosting (xgboost), Nichtlineare Regression, Random Forests, C4.5.
Bibliotheken / ToolsRedHat OpenShift, Red Hat 3scale API Management, IBM Watson, Cloudera Hadoop, Apache Spark mit Streaming und MLlib, Cassandra DB und PostgreSQL, Aerospike, KNIME, DynaMine, SAS, DynaCampaign, MS Visio, Sparx Enterprise Architect, Camunda, JBoss Drools, Scrum-Prozess, LeSS (Large Scale Scrum.

Auftraggeber: Credit Suisse, Zürich
Von – bis: 02/2017 - 05/2017
Projekt:
Erstellung eines bankweiten Cloudera-Hadoop basierenden Business Transaction Stores (Speicher für alle Finanztransaktionen) mit einem kanonischen leistungsfähigen Datenformat (zum Speichern aller Details aller erwartbaren Transaktionen) mit verlustfreien Import- und Export-Filtern sowie Auswertungsfeatures in den folgenden Bereichen: Kontobewegungen, Aktien, Zinsinstrumente, Derivate, ETFs, Fonds (d.h. beliebige “Securities” bzw. Wertpapiere), Berechnung von Bestands-, Kosten- und Risiko-Kennzahlen, Übersichten für’s Wealth Management sowie Steuern, Reporting, Betrugserkennung und Vorbereitung der Möglichkeit des Heraustrennens der Funktionalitäten einer Wertpapier-Transaktionsbank.
Typ/Dauer: Weil CS zum 2. Mal hintereinander einen Verlust von ca. 2,5 Mrd. CHF eingefahren hatte, wurde das Projekt kleiner als geplant umgesetzt und es sollte der Rest Offshore umgesetzt werden. Durch professionelles Coaching sollte nur das professionelle Aufgleisen und Ausrichten des Projekts sichergestellt werden incl. Etablierung einer professionellen Kommunikationsstruktur.

Eigene Rolle:
Couch mit Schwerpunkt Big Data Architektur, IT Projektmanagement und teilweise SPOC–Funktionalität (single point of contact) zum Erlangen des Überblicks für alle Fragen zwischen den CS-Fachbereichen und dem Offshore IT-Team und zum professionellen Aufsetzen der Kommunikation bzw. deren Optimierung zwischen jeweils passenden Personen.

Tätigkeit:
  1. Review und Verbesserung der vorgeschlagenen Grob-Architektur, Ausarbeitung des Architektur-Dokuments auf Basis zahlreicher Meetings und E-Mails mit dem Fachbereich;
  2. Konzeption von Datenmodellen zur redundanzfreien Konvertierung/Speicherung/Aufbereitung und Auswertung aller bestehenden Bank-Transaktionen mittels logischer/physischer Datenmodelle.
  3. Konzepte erstellt für Back-Office-Verarbeitungsverfahren (Reconciliation, Transaktions-Bäume/Graphen als Struktur und bzgl. Aufbau aus zeitlich versetzt und nur teilweise eintreffenden Informationen, Link-Resolution auf dieser Basis); POCs bzgl. komplexer Punkte selbst in Java/Scala programmiert.
  4. Konzeption einer IT-Basis für Finanz-Planungs-Modelle/Investment-Strategien incl. Steueroptimierung für Wealth Management, Investment-Manager sowie strategische Investitionen.
  5. Konzeption der initialen Amazon AWS-Umgebung (benötigt solange die Bank-Umgebung nicht fertig war) und Umsetzung mit AMInator.
  6. Security: Anbindung von Apache Sentry an das zentrale IAM-System (Identity & Access Management) der Bank bzw. initial an LDAP. Härtung der Systemkomponenten bzgl. IT-Sicherheit.
  7. Konzeption der Spark/Kafka Exactly-Once Verarbeitungsfunktionalität sowie der Gesamt-Business Continuity Funktionalität.
  8. Erstellung eines Data Mapping und Versionierungskonzepts mit Umsetzung über ein Switchboard-Pattern: Abwägen der Möglichkeiten der Konvertierung/des Upgrades von Datenformaten/Protokollen/Microservices vs Lazy/Eager Migration von Daten; HBase-Avro-basiertes Versionieren, Bitemporale Logik, Semantisches Versonieren, versionierte lokale/verteilte Microservices mit QBit/Lagom/Spring Boot; DDD-Datenmodelle mit Bounded Context, Context Maps, Self Contained Systems (SCS). Change Management/Versionierung mit Oracle Data Relationship Management (DRM).
DS-Ansatz (Data Science): Rekonstruktion aller Transaktionsbäume mit allen Zweigen, Zeitreihenanalyse, Anomalie-Erkennung, Überwachte Klassifizierung, Multi-Level-Methoden (Transaktion / Konto / Kaufmann / Konzern), Assoziationsanalyse, Link-Analyse-Netzwerke, Maximum-Likelihood-Schätzer, Berechnung eines Verdachts-Scores, sonstige klassische und mehrstufige Verfahren zur Betrugserkennung (siehe gesonderten Abschnitt).

Bibliotheken / Tools
Cloudera Hadoop 5.8 mit HBase + Phoenix, Spark Streaming, MLlib, Alluxio, Kafka mit Camus/Goblin, HDFS, Hive, Flume, Impala, PostgreSQL, Zookeeper, YARN, Hue, Grafana, Cloudera Manager, Apache Sentry, Solr, Splunk, IBM WebSphere MQ, Oracle Weblogic, Sparx Enterprise Architect, Visio, Informatica Data Integration, IBM Integration Bus (IIB) Graphical Data Mapping Editor, JT400/JTOpen, MS Office, Scala, Java, Python.

 
 

Auftraggeber:
Cisco Systems mit AOK Nordost und AOK Systems als Endkunden, Berlin

Von – bis:
12/2016 – 01/2017

Projekt:
Konzeption einer Microservice-Strategie und eines Architektur-Blueprints für alle SW-Entwicklungsprojekte bei AOK Nordost und AOK Systems incl. Dienstleistern sowie auch für Mobile Apps mit Big Data Integration für Datenaustausch und Data Science.

Eigene Rolle:
Architekt/Entwickler Microservices/mobile Apps/Big Data per DDD, Java, Scala

Tätigkeit:
Zusammentragen der führenden publizierten Techniken und Tools zu Microservices und Mobile Apps & Big Data sowie der integrativen Erstellung von Software mit allen Aspekten in Form eines ca. 250-seitigen Architektur Blueprints mit folgenden Inhalten: Architekturziele, Architekturprinzipien, Architekturstandards, Patterns, Neuentwicklung von Konzepten für lokale und vereinfachte Microservices (Neukonzeption eines Code Generierungs-Modells, um viele Microservices in Java/Scala als ein JAR/WAR/EAR oder als mehrere Deployment-Module bauen und debuggen/tracen/testen zu können), Microservice Best Practices, API Management, Datenkonvertierung/Serialisierung, Logging/Tracing, IT-Sicherheit/IAM, Modellierung per Domain-Driven Design (DDD) mit Bounded Context, deren Building Blocks und Responsibility Layers, Self Contained Systems (SCS) und Integration der Mobile-App Komponenten, KPI (Key Performance Indicators), Migrationsschritte von Monolithen hin zu Microservices, Software Load-Balancing, Infrastructure as Code, DevOps-Praktiken wie Continuous Integration und Continuous Deployment.
Im praktischen Teil wurde der Code-Generator entwickelt für die Kombination mehrerer Versionen eines oder verschiedener Microservices in ein Deployment-Paket oder in je ein JAR-Paket. Die unten genannten führenden Microservice-Bibliotheken für Java, Scala und Node.JS mit AngularJS 2 und Ionic Framework (Mobile Apps) wurden getestet/evaluiert.

Bibliotheken / Tools
Standard-Tools: Akka, Apache Gearpump (real-time big data streaming engine over Akka), Apache Flink (actor model, hierarchy, Deathwatch mit libs: CEP, Table, FlinkML, Gelly), spray (HTTP/REST), Spark, HashiCorp Nomad (Clustermanager & Scheduler), SenecaJS, swagger-codegen, Scraml, RAML tools wie JAX-RS Codegen, API Designer, Zipkin/OpenZipkin, OpenTracing, Fluentd (data collector for unified logging), DropWizard, Spring Boot, Spring Cloud (RESTful WebServices in Java), Lagom (Microservices in Scala), Hashicorp-Tools wie Serf, Consul, Nomad (Clustermanager & Scheduler), DevOps- und Continuous Integration/Deployment Tools wie Jenkins, Sonar(Qube), Git, Github, Docker, Kubernetes, Chef, Puppet, Axon Framework (Java Microservices), Prometheus (Monitoring), JHipster (yeoman.io, Java & AngularJS microservice generator mit BrowserSync, Spring Boot Devtools [hot reload], Liquibase, Generator for Ionic framework).
Big Data Stack: Thrift, Avro, Spark, Flink, HBase, Cassandra, Hadoop, Cloudera, Hortonworks, Grafana, Hue, Docker, Kubernetes, vmWare, kvm.
Netflix-Stack: Hysterix (Failure Isolation, Circuit Breaker), Hollow (small to moderately sized in-memory datasets passing from a single producer to many consumers for read-only access), Netflix Conductor (microservices orchestrator), Nebula Gradle plugins, Governator (Guice extensions), Zuul (dynamic routing, monitoring, resiliency, security), Genie (job orchestration), Dyno, Dynomite (storage layer for key-value storage engines), Dyno Queues (Task Queues on Dynomite), Hollow (caching for small read-only in-memory dat

Zertifikate

PMP - Project Management Professional
2023
RMP - Risk Management Professional
2023
AWS Certified Solutions Architect
2023

Reisebereitschaft

Weltweit verfügbar
Weltweit vor Ort einsetzbar.

Sonstige Angaben

20 Jahre KI-Erfahrung (Künstliche Intelligenz/ AI – Artificial Intelligence / Computer Vision): Key Skills: Deep Learning (CNN, RNN, TensorFlow, PyTorch, etc.), Deep NLP (Natural Language Processing: BERT, ULM-FiT, ELMo, Transfer Learning, OpenNMT, OpenAI Transformer, AllenNLP, Stanford CoreNLP), Data Science (Apache Spark MLlib, Mahout, R, spaCy, Anaconda), hybride Modelle (vorgegebene Strukturen + neuronale Netze + Gewichte/Stochastik, z.B. LSTM (Long Short-Term Memory), GRU (Gated Recurrent Units), Attention, Feast AI), PMML, ONNX, OpenScoring.io, Speicherung von Deep Learning Zwischenständen + Modellen, Wissensrepräsentation und Inferenz (Schlußfolgerungen ziehen), Semantik, Virtualisierung, Management mit Docker, Kubernetes, Airflow, etc

Youtube - Video

Profil-Pitch auf Englisch

Profilbild von Thomas Poetter IT Architect (AI, Big Data, Cloud, Apps, Enterprise, Security), Agile Coach/Project Management aus Rastatt IT Architect (AI, Big Data, Cloud, Apps, Enterprise, Security), Agile Coach/Project Management
Registrieren