Schlagwörter
Apache
SQL
Maven
Ruby
Mongo DB
Spark
Kafka Messaging
Apache Kafka Connect
Apache Kafka Streams
Spark (Scala)
Spark SQL
Spark Streaming
Big Data
HBase Spark
Cassandra
Apache Cassandra
Kenntnisse BigData bzw. Apache Cassandra
Apache Flink
Kafka Connect
Kafka Streams
Kafka streams RocksDB
Streaming Architektur
Flink
Testcontainers
Avro
mlflow
Debezium
GitLab CI/CD
Gitlab Runner
GitLab CI
Gitlab
Mockito
Python 3
Skills
Agile Software Development (Scrum), Clean Code, TDD, Entity-Relationship- Modellierung, Design Patterns
Java, JavaScript (ES6), Python, Ruby, Kotlin, SQL
Spring Framework, Express.js, Ruby on Rails
React, Redux, Jasmine, React-Native, jQuery, Firebase, Expo, PWA Cassandra, Hive, MySQL/MariaDB (Galera), PostgreSQL, MongoDB, Redis
Hadoop Platform (HBase, Zookeeper, Hive, Avro, Parquet, Ranger, NiFi), Apache Spark (RDD, Streaming, SQL, DataFrames), Apache Kafka (Kafka-Connect, Schema-Registry, Kafka-Streams, KSQL, Mirror Maker), Strimzi Kafka Operator, Elasticsearch, Apache Flink, Debezium
scrapy, JupyterHub, Jupyter Notebook, MLflow, pandas
Docker, Vagrant, Ansible, Prometheus, Kubernetes (Helm), Terraform, GitLab (CI/CD), Grafana, Pulumi, Argo CD
IntelliJ IDEA, gatling, git, Maven, Testcontainers, JUnit, Mockito, Kerberos, LDAP (Active Directory), Confluece, JIRA, LATEX
macOS, Linux, Windows
Finanzdienstleister, Versicherer, Einzel- und Großhandel, Softwarehersteller, Verkehrsunternehmen, Telekommunikationsunternehmen, Automobilindustrie
Java, JavaScript (ES6), Python, Ruby, Kotlin, SQL
Spring Framework, Express.js, Ruby on Rails
React, Redux, Jasmine, React-Native, jQuery, Firebase, Expo, PWA Cassandra, Hive, MySQL/MariaDB (Galera), PostgreSQL, MongoDB, Redis
Hadoop Platform (HBase, Zookeeper, Hive, Avro, Parquet, Ranger, NiFi), Apache Spark (RDD, Streaming, SQL, DataFrames), Apache Kafka (Kafka-Connect, Schema-Registry, Kafka-Streams, KSQL, Mirror Maker), Strimzi Kafka Operator, Elasticsearch, Apache Flink, Debezium
scrapy, JupyterHub, Jupyter Notebook, MLflow, pandas
Docker, Vagrant, Ansible, Prometheus, Kubernetes (Helm), Terraform, GitLab (CI/CD), Grafana, Pulumi, Argo CD
IntelliJ IDEA, gatling, git, Maven, Testcontainers, JUnit, Mockito, Kerberos, LDAP (Active Directory), Confluece, JIRA, LATEX
macOS, Linux, Windows
Finanzdienstleister, Versicherer, Einzel- und Großhandel, Softwarehersteller, Verkehrsunternehmen, Telekommunikationsunternehmen, Automobilindustrie
Projekthistorie
Bitte aus CV entnehmen.
01.2018– 06.2018
Fachkenntnisse
Agile Software Development (Scrum), TDD, Entity-Relationship-Modellierung, De- sign Patterns
Java, Scala, JavaScript (ES6), Ruby, SQL
Spring Framework, Express.js, JUnit, Ruby on Rails, Hilbernate
React, Redux, Jasmine, React-Native, jQuery, Firebase, Expo, PWA Cassandra, Hive, MySQL/MariaDB (Galera), PostgreSQL, MongoDB, Redis
Hadoop Platform (HBase, Zookeeper, Hive, Avro, Parquet, Ranger, NiFi), Apache Spark (RDD, Streaming, SQL, DataFrames), Apache Kafka (Kafka-Connect, Schema-Registry, Kafka-Streams, KSQL), Elasticsearch, Apache Flink
Docker, Vagrant, Ansible, Prometheus, Kubertenes (Helm), Terraform, Jenkins, GitLab, Grafana
IntelliJ IDEA, gatling, git, Maven, Kerberos, LDAP (Active Directory), Confluece, JIRA, LATEX
macOS, Linux, Windows
Finanzdienstleister, Versicherer, Einzel- und Großhandel, Softwarehersteller
Projekte (Auszug)
Entwickler und Coach, Immobilienbank, Wiesbaden.
Ablo?sung von Punkt-zu-Punkt Verbindungen durch moderne Schnittstellenenwicklung auf Basis von Reaktiven Programmierparadigmen. Neben der Entwicklung wurden interne Kollegen durch Coachings und Aktiver Mitarbeit eingearbeitet.
Technologie: Java 8, Spring Boot 2, Hystrix, Kafka 1.0, Kubertenes, Helm, Custom Kafka-Connectors, REST-Proxy, Schema-Registry, SAP, JCO, Hibersap, Maven, GitLab, Kibana
03.2018 Cassandra Experte, Softwarehersteller, Walldorf.
Im IOT Kontext wurden Performance Probleme identifziert und Lo?sungsansa?tze vorgeschla- gen. Daru?berhinaus wurde in einem neu initiertes Team die BigData Komponenten vorgestellt in einem Workshop-Charakter das Datenmodell entworfen.
Technologie: Cassandra, Datenmodellierung, Code-Review, Kafka, Spark 09.2016– Data Engineer, Universalbank, Frankfurt am Main.
12.2017 Aufbau und Weiterentwicklung eines Konzernweiten Data Lake‘s mit der Hadoop Distribu- tion von IBM (BigInsights) und der spa?teren Migration zum Hortonwork Data Platform. Daru?berhinaus wurden Anwender des Data Lake’s beraten und technisch bei den Problem und Architekturen begleitet.
Technologie: Hadoop, Kafka (Disaster Recovery, Monitoring), Scala, Spark, HBase, Hive, Ranger, BigSQL, Kafka-Connect, Schema-Registry, Ansible, MariaDB, Hadoop BigInsights & Hortonworks, Kerberos, SSL, Active Directory, LDAP
01.2018– 06.2018
Fachkenntnisse
Agile Software Development (Scrum), TDD, Entity-Relationship-Modellierung, De- sign Patterns
Java, Scala, JavaScript (ES6), Ruby, SQL
Spring Framework, Express.js, JUnit, Ruby on Rails, Hilbernate
React, Redux, Jasmine, React-Native, jQuery, Firebase, Expo, PWA Cassandra, Hive, MySQL/MariaDB (Galera), PostgreSQL, MongoDB, Redis
Hadoop Platform (HBase, Zookeeper, Hive, Avro, Parquet, Ranger, NiFi), Apache Spark (RDD, Streaming, SQL, DataFrames), Apache Kafka (Kafka-Connect, Schema-Registry, Kafka-Streams, KSQL), Elasticsearch, Apache Flink
Docker, Vagrant, Ansible, Prometheus, Kubertenes (Helm), Terraform, Jenkins, GitLab, Grafana
IntelliJ IDEA, gatling, git, Maven, Kerberos, LDAP (Active Directory), Confluece, JIRA, LATEX
macOS, Linux, Windows
Finanzdienstleister, Versicherer, Einzel- und Großhandel, Softwarehersteller
Projekte (Auszug)
Entwickler und Coach, Immobilienbank, Wiesbaden.
Ablo?sung von Punkt-zu-Punkt Verbindungen durch moderne Schnittstellenenwicklung auf Basis von Reaktiven Programmierparadigmen. Neben der Entwicklung wurden interne Kollegen durch Coachings und Aktiver Mitarbeit eingearbeitet.
Technologie: Java 8, Spring Boot 2, Hystrix, Kafka 1.0, Kubertenes, Helm, Custom Kafka-Connectors, REST-Proxy, Schema-Registry, SAP, JCO, Hibersap, Maven, GitLab, Kibana
03.2018 Cassandra Experte, Softwarehersteller, Walldorf.
Im IOT Kontext wurden Performance Probleme identifziert und Lo?sungsansa?tze vorgeschla- gen. Daru?berhinaus wurde in einem neu initiertes Team die BigData Komponenten vorgestellt in einem Workshop-Charakter das Datenmodell entworfen.
Technologie: Cassandra, Datenmodellierung, Code-Review, Kafka, Spark 09.2016– Data Engineer, Universalbank, Frankfurt am Main.
12.2017 Aufbau und Weiterentwicklung eines Konzernweiten Data Lake‘s mit der Hadoop Distribu- tion von IBM (BigInsights) und der spa?teren Migration zum Hortonwork Data Platform. Daru?berhinaus wurden Anwender des Data Lake’s beraten und technisch bei den Problem und Architekturen begleitet.
Technologie: Hadoop, Kafka (Disaster Recovery, Monitoring), Scala, Spark, HBase, Hive, Ranger, BigSQL, Kafka-Connect, Schema-Registry, Ansible, MariaDB, Hadoop BigInsights & Hortonworks, Kerberos, SSL, Active Directory, LDAP
Reisebereitschaft
Verfügbar in den Ländern
Deutschland, Österreich und Schweiz
would like to work remotely and in the near of Frankfurt