Profilbild von Georg Schulz IT-Berater mit Schwerpunkt IT-Infrastruktur (Linux) aus Kassel

Georg Schulz

verfügbar

Letztes Update: 25.03.2024

IT-Berater mit Schwerpunkt IT-Infrastruktur (Linux)

Abschluss: M.Sc. Data Science
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher) | spanisch (Grundkenntnisse)

Schlagwörter

Bash Shell Agile Methodologie Airflow Data Analysis Information Engineering Data Mining Apache Hadoop Apache Hbase Solaris Apache Spark + 60 weitere Schlagwörter anzeigen

Dateianlagen

CV_190224.pdf

Skills

API, Agile, Agile Modelle, Airflow, Apache Airflow, AWS, Ambari, Anaconda, Ansible, Ansible Tower, Apache, Hadoop, Apache Hadoop, HBase, Apache HBase, Kafka, Apache Kafka, Maven, NiFi, Apache NiFi, Spark, Apache Spark, MacOS, Application Management, Artifactory, Bash Scripting, Bash, Bash-Scripting, Big Data, CentOS, Cloud, Technische Informatik, Confluence, Data Analyst, Analytics, Datenanalyse, Datenintegration, Data-Mining, Data Mining, Datenbank, Datenbanken, Datenprüfung, Datenvisualisierung, DevOps, Docker, Eclipse, Git, GitLab, Google Cloud, Grafana, HTML, HDFS, HAProxy, IT-Infrastruktur, IT- Infrastruktur, Data Engineering, Data Engineer, IT-Security, Java, Java Development Tools, Jira, JSON, Jupyter, Kerberos, Linux, Benutzeroberflächen, Message Broker, Microservices, Azure Cloud, MS Excel, MS Powerpoint, Sharepoint, Windows, MySQL, numpy, Open-Source, Pandas, Parquet, Perl, PostgreSQL, Python, R, RedHat, Anforderungsmanagement, SAP, SLES, scikit-learn, SMTP, Single Sign-On, Softwareentwicklung, Solaris, Solaris 11, SPSS, Tableau, TensorFlow, Unix, Ubuntu, Webanwendungen, JBoss, Cloud, AWS, Terraform, Hashicorp, Rundeck

Projekthistorie

04/2023 - bis jetzt
Cloud Developer und Administrator für Big Data Anwendungen
DB Systel GmbH (Transport und Logistik, 5000-10.000 Mitarbeiter)

Entwicklung eines zentralen Terraform Frameworks zum Aufbau und Betrieb der kundenübergreifenden Cloud Ressourcen in der AWS Cloud sowie Betreuung der vorhandenen Big Data Plattformen bei der DB Systel GmbH in Frankfurt am Main

Methoden: Terraform, CICD, GitLab, DevOps, Ansible, Commitizen

Tools & Librarie: Terraform, HashiiCorp, GitLab, Rundeck, AWS Cloud, Artifactory, Ansible, Python, Bash

Einführung eines zentralen Terraform-Frameworks in GitLab zum Aufbau und Betrieb der kundenübergreifenden Cloud-Ressourcen mit Python als Wrapper für über Commitizen versionierte Terraform-Module.
Überführung nicht in IaC abgebildeter Cloud Ressourcen in das Terraform Framework sowie Sicherstellung des konsistenten Datenbestands in GitLab gegenüber der AWS Cloud über regelmäßige Schedules zur Ausführung der relevanten GitLab-Projekte.
  • Entwicklung eines Konzepts zur einheitlichen Abbildung aller zugrundeliegenden Terraform-Module mittels konventioneller und unkonventioneller Namenskonvention
  • Entwicklung eines generischen Python-Moduls zur Konfigurationsdefinition der Cloud-Ressourcen
  • Versionierung aller Terraform-Module über das Open-Source Release Management Tool Commitizen
  • Implementierung einer teamübergreifenden Container-Lösung zur manuellen Bearbeitung der verschiedenen Terraform-States der Git-Projekte des Terraform Frameworks
  • Dokumentation des Terraform Frameworks über generische GitLab-Projekt-Templates
  • Entwicklung und Pflege der Ansible-Rollen zur Einrichtung der IT-Infrastruktur und Big Data Anwendungen in der AWS Cloud
  • Zentraler Ansprechpartner für die Behebung von Produktionsstörungen und hoch priorisierten Incidents
  • Beratung bei Kundenanforderungen wie beispielsweise Konfiguration der Ressourcen in der AWS Cloud oder der Big Data Anwendungen
  • Mitverantwortung für den technischen Teil des Projektes

07/2021 - 03/2023
System-Administrator im Team Unix-Basis
DZ BANK AG (Banken und Finanzdienstleistungen, >10.000 Mitarbeiter)

Aufbau der Ansible Automation Plattform und Migration des bestehenden Ansible Towers im internen
Netz, der Azure Cloud, Google Cloud sowie DMZ und Entwickler der Basis-Installationen aller RedHat
und Solaris-Systeme der DZ BANK AG in Frankfurt am Main

Methoden: DevOps, Ansible, CICD

Tools & Libraries: Ansible Automation Plattform, Automation Hub, Keycloak, JBoss, Ansible Tower,
GitLab, Artifactory, Podman, RedHat Satellite Server, SMTP, Perl, Python, Bash,
PostgreSQL, RedHat, Solaris, Google Cloud, Azure Cloud

Einführung einer vollständig hochverfügbaren Automatisierungs-Plattform und Anbindung an alle
relevanten Netzwerkzonen. Migration des bestehenden Ansible Towers, obwohl laut Hersteller nur
ein InPlace-Upgrade technisch umsetzbar ist.

* Implementierung des IT-Betriebs übergreifenden Berechtigungskonzepts innerhalb eines
zentralen generischen lokalen Repository des Artifactory zur Verteilung von Software in der DZ
BANK
* Entwicklung einer generischen Ansible-Funktion zur Verteilung von Artefakten des Artifactory in
Netzwerkbereiche ohne Zugriff auf das Artifactory
* Entwicklung einer generischen Ansible-Funktion zur dynamischen Bestellung von
Sicherheitszertifikaten und Java Keystores über CertAccord sowie Konfiguration des CertAccord-
Agenten
* Entwicklung eines zentralen Frameworks zur Ansteuerung von internen Systemen, der DMZ,
Google Cloud sowie Azure Cloud über den Ansible Tower / Ansible Automation Plattform
* Entwicklung eines Konzepts zur Installation und Administration von Services über Ansible
Collections
* Entwicklung und Pflege der Basis-Installationen der DZ BANK für alle Linux- (RedHat 7, RedHat
8) und Solaris-Systeme (Solaris 11)
* Entwicklung der zentralen jährlichen Release-Zyklen zur Pflege und Fehlerbehebungen aller
Bestandssysteme für Linux und Solaris der DZ BANK
* Design und automatisierte Installation einer vollständig ausfallsicheren Ansible Automation
Plattform
* Export und Import aller in der Datenbank verschlüsselten und gehashten Credentials
(Passwörter, SSH-Keys, Token) des Ansible Towers in leere Datenbankschemata eines
automatisiert installierten PostgreSQL-Clusters der Ansible Automation Plattform über ein
Python-Framework
* Implementierung des Berechtigungs- und des automatisierten Deploymentprozesses aller
Ansible Collections des ausfallsicheren Automation Hubs
* Automatisierte Installation des Single Sign-On der Ansible Automation Plattform über die
Softwarekomponenten Keycloak, JBoss, HAProxy, Keepalived und PostgreSQL
* Zentraler Ansprechpartner für die Ansible Automation Plattform im IT-Betrieb und Koordinator
der Migration aller Daten des Ansible Towers

01/2019 - 06/2021
Data Engineer (externer Berater)
DB Cargo AG (Transport und Logistik, >10.000 Mitarbeiter)

Methoden: Agile Arbeitsmethoden, Visualisierung, Anforderungsmanagement

Tools & Libraries: Ansible, Apache NiFi, Apache Spark, Apache Hadoop, Apache HBase, Apache
Phoenix, Apache Kafka, Apache Airflow, Apache Parquet, PostgreSQL, Dremio,
Apache Hue, Apache Drill, OpenTSDB, Apache Ranger, Kerberos

Einführung einer Advanced Analytics Plattform und Anbindung verschiedener Datenquellen.

* Automatisierte Installation und Konfiguration der Apache Softwarekomponenten HDFS, HBase,
Phoenix, Spark, Knox, Airflow, NiFi, Ranger und Drill mit Ansible
* Automatisierte Installation und Konfiguration eines hochverfügbaren PostgreSQL-Clusters mit
Ansible
* Sicherstellung der Kompatibilität innerhalb des Clusters
* Sizing der einzelnen EC2 Instanzen in der AWS Umgebung
* Implementierung des Berechtigungs- und des automatisierten Deploymentprozesses
* Beratung bei der Umsetzung von Datenintegrationsstrecken mit Apache NiFi, Apache Kafka,
Apache HBase und Dremio
* Zentraler Ansprechpartner für IT-Security und IT-Infrastruktur für die Data Scientists
* Zentraler Ansprechpartner für das Automatisierungstool Ansible
* Implementierung von Datenintegrationsstrecken von Sensor- und Diagnosedaten
* Entwicklung von Dashboards mit Tableau und Grafana
* API Entwicklung von Microservices
* Anbindung verschiedener Datenquellen per API aus bspw. Jira, Thingsboard oder GCU Message
Broker

10/2018 - 06/2021
DevOps Engineer und Data Engineer
German Management Consulting GmbH (Internet und Informationstechnologie, 10-50 Mitarbeiter)

Einführung eines Open-Source Ansible Towers sowie automatisierte Einrichtung der internen IT-
Infrastruktur und Aufbau einer Advanced Analytics Plattform in der Hetzner Cloud bei der German
Management Consulting GmbH in Eschborn

Methoden: Agile Arbeitsmethoden, Anforderungsmanagement

Tools & Libraries: Ansible Tower, SAP, Ansible, Apache NiFi, Apache Spark, Apache Hadoop,
Apache HBase, PostgreSQL, Apache Hue, Apache Drill, Kerberos

* Automatisierte Installation und Konfiguration eines Open-Source Ansible Towers sowie
Einführung des Deployment-Prozesses zur Einrichtung der internen IT-Infrastruktur
* Automatisierte Bereitstellung der Sicherheitszertifikate aller SAP-Systeme über die
Certification Authority Let's Encrypt
* Automatisierte Installation und Konfiguration der Apache Softwarekomponenten HDFS, HBase,
Spark, NiFi, Drill, Hue mit Ansible
* Automatisierte Installation und Konfiguration eines hochverfügbaren PostgreSQL-Clusters mit
Ansible
* Sicherstellung der Kompatibilität innerhalb des Clusters
* Automatisiertes Sizing der Instanzen sowie Netzwerkeinrichtung in der Hetzner Cloud mit
Ansible
* Zentraler Ansprechpartner für IT-Security und IT-Infrastruktur

04/2020 - 07/2020
Schema-Inferenz basierte Datenintegration in Apache NiFi
German Management Consulting GmbH (Internet und Informationstechnologie, 10-50 Mitarbeiter)

Seminararbeit bei der German Management Consulting GmbH in Eschborn

Methoden: Data Engineer, Java Development

Tools & Libraries: Apache NiFi, Maven, Java, Eclipse

* Entwicklung eines NiFi-Prozessors zur automatisierten Schema-Inferenz von CSV-Dateien in
JSON und Parquet
* Erstellung von Funktionen und Klassen in Java
* Testing mit verschiedenen Datenformaten

03/2018 - 07/2018
Big Data Consultant (externer Berater)
Daimler AG (Banken und Finanzdienstleistungen, 1000-5000 Mitarbeiter)

Tools & Libraries: Ambari, Apache Hadoop, Python, R, Bash, PostgreSQL, SLES, Confluence, Jira

* Ambari Administration
* Application Management
* Administration von PostgreSQL-Datenbanken
* Vergleich der Hadoop-Cluster mit Python und R
* Wartung der Hadoop-Cluster
* Anpassung der Kundendokumentation
* Bash-Scripting
* Aufsetzen mehrerer virtueller Maschinen mit SLES 12

09/2017 - 11/2017
Praktikant im Bereich quantitative Marktforschung
Kantar Group (Marketing, PR und Design, >10.000 Mitarbeiter)

Methoden: Quantitative Marktforschung, Automatisierung

Tools & Libraries: SPSS, MS Excel, MS Powerpoint, MySQL

* Datenmanagement, Datenprüfung, Datenaufbereitung sowie Datenanalyse mit SPSS und MS
Excel
* Interpretation von Studienergebnissen
* Konzeption, Erarbeitung und Kontrolle umfangreicher Ergebnispräsentationen mit MS
Powerpoint
* Automatisierung der Auswertung einer Studie mit SPSS und MS Excel

10/2016 - 08/2017
Studentische Hilfskraft
Universität Kassel (Öffentlicher Dienst, 1000-5000 Mitarbeiter)

Methoden: Webanwendungen, Softwareentwicklung

Tools & Libraries: R, R Shiny, ggplot, Statistik

* Planung und Entwicklung von interaktiven Webanwendungen mit R Shiny
* Erstellung von Funktionen zur Arbeitsweise der Webanwendungen und Aktualisierung der
Benutzeroberflächen
* Vertiefung von Fachwissen in interaktiven Webanwendungen und Datenvisualisierung

04/2016 - 07/2016
Praktikant im Bereich Data Science
eoda GmbH (Internet und Informationstechnologie, 10-50 Mitarbeiter)

Methoden: Programmieren, Data Mining

Tools & Libraries: Big Data, R, ggplot, HTML

* Datenmanagement, Datenprüfung, Datenaufbereitung, Datenanalyse sowie Datenvisualisierung
in R
* Erstellung von Funktionen und Skripten in R
* Erstellung einer komplexen Funktion zur Performanzevaluation von Data-Mining-Algorithmen,
aber auch Mitarbeit an anderen Funktionen
* Erstellung eines Fragebogens zur Erfassung von Unternehmensbedarfs hinsichtlich Analytic
(Anpassung von HTML-Strukturen, Daten-integritätsprüfung in der entsprechenden Datenbank)

Reisebereitschaft

Weltweit verfügbar

exali IT-Haftpflicht-Siegel (Sondertarif für Freelancermap-Mitglieder)

Das original exali IT-Haftpflicht-Siegel bestätigt dem Auftraggeber, dass die betreffende Person oder Firma eine aktuell gültige branchenspezifische Berufs- bzw. Betriebshaftpflichtversicherung abgeschlossen hat. Diese Versicherung wurde zum Sondertarif für Freelancermap-Mitglieder abgeschlossen.

Versicherungsbeginn:
29.03.2023

Versicherungsende:
01.04.2024

Profilbild von Georg Schulz IT-Berater mit Schwerpunkt IT-Infrastruktur (Linux) aus Kassel IT-Berater mit Schwerpunkt IT-Infrastruktur (Linux)
Registrieren