06.11.2025 aktualisiert

**** ******** ****
verifiziert
Premiumkunde
nicht verfügbar

Data & AI Engineer — Platform Architect

Köln, Deutschland
Weltweit
M.Sc. Computer and Systems Sciences
Köln, Deutschland
Weltweit
M.Sc. Computer and Systems Sciences

Profilanlagen

CV.pdf

Skills

ProxmoxAnwendungsdesignTrainingsdatenKubernetes-SicherheitSql Data WarehouseHTMLJavascriptAPIsAgile MethodologieKünstliche IntelligenzAirflowAmazon Web ServicesAmazon S3Data AnalysisAnwendungssicherheitArchitekturComputer VisionAuthentifizierungsprotokolleAutomatisierungUnit TestingMicrosoft AzureBash ShellBusiness IntelligenceBig DataUnternehmensberatungCertified Information Systems Security ProfessionalClickstreamSaasCloud ComputingCloud-SicherheitCloud-EngineeringCloud-SpeicherClusteranalyseComputer-ClusterInformationssicherheitContinuous IntegrationDagsData ArchitectureDatenvalidierungInformation EngineeringData GovernanceWeb ScrapingDateninfrastrukturData IntegrationDatenintegritätETLDatenmanagementData MartDatenmodellDatensicherheitDatenstrukturDaten-VirtualisierungData WarehousingIBM DB2DatenbankanwendungRelationale DatenbankenDatenbank-VerschlüsselungDB2 SQLDesign ThinkingLinuxDevopsDisaster-Recovery-PlanDistributed Data StoreDistributed ComputingDjangoAmazon DynamodbElasticsearchHandelsplattformAktienhandelFailoverFöderierte IdentitätForecastingGithubSteuerungGraphdatenbankApache HadoopHadoop Distributed File SystemMapReduceHaproxyApache HiveIaasIdentitätsmanagementBildverarbeitungIterative EntwicklungInformation RetrievalData IntelligenceIteratives DesignJsonPythonKernel-Based Virtual Machine (KVM)PostgresqlLineare RegressionLinux-AdministrationLinux ServersMachine LearningProjektmanagementMicrosoft Sql-ServerMQTTNatural Language ProcessingNeo4JNetzwerküberwachungNosqlOauthOLAP CubeOpen Source SoftwareOpen Source IntelligenceOwaspPaasPassword VaultPredictive AnalyticsVermögensverwaltungScrumPrototyping (Softwareentwicklung)RabbitmqTelemetrieRedisRegressionstestAnsibleBlockchainPublish SubscribeTensorflowPrometheusSmart ContractsDataOpsSchreiben von DokumentationAnforderungsanalyseReverse-ProxySamlSupply Chain ManagementWertpapiermarktSicherheitstestsSensorfusionServer AdministrationSiemSimulationenSoftwareentwicklungSQLStakeholder ManagementBörsenGeschäftsstrategienStreamingNachhaltigkeitSystem DesignZeitreihenanalyseTokenizationTypescriptVirtualizationWeb ApplikationenYAMLEnterprise SearchJupyter NotebookParquetSupervised LearningSSL-ZertifikatsmanagementWertpapiereTransaktionsverarbeitung (Datenverarbeitung)TestenHochverfügbarkeits-ClusterUrsachenanalyseGoogle CloudCloud PlatformMetrikenDatenklassifizierungEchtzeitsystemeFeature-EngineeringChatbotsData ScienceEvent-driven ArchitectureZeitreihendatenbankenDocument MetadataPytorchFlaskLarge Language ModelsSnowflakeData Build Tool (dbt)GrafanaRandom ForestApache SparkKostenoptimierungInternet Of ThingsLasttestsAws LambdaChange Data CaptureInfrastructure as Code (IaC)KerasDatenstrategieGitlabGitFastapiKanbanEvent Driven ArchitectureMicrosoft Fabric (Analytics-Plattform)PytestSpark MllibContainerisierungData LakePysparkGitlab-CiGit FlowScikit-learnKubernetesData LineageApache FlinkHuggingFaceAvroRancherAWS GlueComplex Event ProcessingBlankes MetallXgboostDaskGoogle BigqueryCloudflareAWS FargateEthereumEchtzeitdatenSolidityApache KafkaNicht-relationale DatenbankEvent StoreSuchmaschinenDistributed LedgerAzure AKSSpark StreamingDatenmanagementMachine Learning OperationsDSGVOPrestoBitcoinEvent-SourcingDatenbanküberwachungKibanaTerraformDocument ClassificationCrypto CurrencyGrpcStream AnalyticsErkennung von AnomalienAWS EKSAmazon Elastic Mapreduce (EMR)DockerUnsupervised LearningStatic Application Security TestingAmazon RedshiftDatabricksGolangData CachingCrudMicroservicesDynamic Application Security Testing


René Zahrte
Data & AI Engineer — Platform Architect



Ich bin freiberuflicher Informatiker und habe mich auf die Entwicklung ganzheitlicher Daten- und KI-Systeme spezialisiert, die Unternehmen dabei unterstützen, ungenutzte Daten gezielt in wertvolle Erkenntnisse zu verwandeln. Ich helfe Ihnen, eine skalierbare und sichere Datenplattform aufzubauen, Prozesse effizient zu automatisieren und innovative KI-Anwendungen zu entwickeln – damit Sie das volle Potenzial Ihrer Daten ausschöpfen und Ihr Unternehmen fit für eine souveräne digitale Zukunft machen können. Abhängig von Ihrer IT-Strategie setze ich dabei entweder auf bewährte, verwaltete Cloud-Dienste oder auf moderne, selbstverwaltete Open-Source-Lösungen.



  1. Strategische Beratung & Anforderungsanalyse
  2. Strategieentwicklung
  3. Technologische Evaluierung, Architekturentscheidungen
  4. Roadmap-Erstellung
  5. Data Engineering & Systemarchitektur
  6. Batch Processing, Event Streaming, Datenintegration (ETL/ELT)
  7. Data Mesh, Master Data, Data Warehouse (DWH)
  8. Datenmodellierung, Datenmanagement
  9. Machine Learning & Künstliche Intelligenz
  10. Sprachverarbeitung (NLP, RAG, LLM Agents)
  11. Bildverarbeitung (OCR, Computer Vision)
  12. Evaluierung, Labeling, Fine-Tuning, Vektorsuche
  13. Softwareentwicklung & Automatisierung
  14. APIs, Skripte, Dashboards, Chatbots, Web Apps
  15. Python, SQL, Bash, Go, JavaScript, HTML
  16. DevOps, Infrastructure-as-Code, CI/CD, Agile Softwareentwicklung (Kanban, Scrum)
  17. Cloud Computing & Virtualisierung
  18. AWS, Azure, Google Cloud, Hetzner, Cloudflare
  19. Kubernetes, Microservices, Containerisierung, Linux
  20. Hybrid Cloud, Self-Hosting, Bare-Metal, Networking
  21. Cybersecurity & Governance
  22. Datensicherheit, Datenschutz, Richtlinien, Standards
  23. Identity & Access Management, Secret Management, Software Testing
  24. Monitoring, Logging, Observability (Metrics, Logs, Traces, Profiles)
  25. Betrieb & Support
  26. Dokumentation, Übergabe
  27. Wartung, Updates
  28. Nachhaltigkeit, Optimierung

Sprachen

DeutschMutterspracheEnglischverhandlungssicher

Projekthistorie

Data Warehouse für Lebensmittelhandel

REWE digital GmbH

Transport und Logistik

>10.000 Mitarbeiter

  1. Rolle: Data Engineer — Platform Architect
  2. Beschreibung: Leitende Konzeption und Entwicklung eines Real-Time Data Warehouse (DWH) mit Kafka, Snowflake und dbt als zentrale Datenbasis (OLAP) für stochastische Simulationen zur kontinuierlichen Optimierung von Lieferketten im Lebensmittelhandel. Das Datenmodell folgt einer Medallion-Architektur und setzt einen Data-Mesh-Ansatz um. Die Lösung wird auf Kubernetes betrieben und durch ein umfassendes Monitoring- und Logging-System mit Prometheus, Loki und Grafana ergänzt, um einen hochverfügbaren und systemkritischen Betrieb, unter Einhaltung von SLAs, sicherzustellen.
  3. Technologie: Apache Kafka, dbt, Docker, GitLab, Google Cloud, Grafana, Kubernetes, Linux, Loki, Mimir, Prometheus, Python, Snowflake, SQL, Terraform

KI-System zur Aktienanalyse

Flossbach von Storch SE

Banken und Finanzdienstleistungen

250-500 Mitarbeiter

  1. Rolle: Data & AI Engineer — Platform Architect
  2. Beschreibung: Leitende Konzeption und Entwicklung eines KI-Systems (RAG) zur Beschleunigung fundamentaler Unternehmensanalysen in der Vermögensverwaltung. Die Lösung kombiniert einen Chatbot (LLM Agent) mit einer Vektorsuche und einem zentralen Dokumentenmanagementsystem. Sie verarbeitet große Mengen an PDF-Dokumenten mittels OCR, implementiert eine umfassende Tagging-Strategie und erfasst zahlreiche Metadaten. Dadurch werden Informationen deutlich zugänglicher und die Bewertung von Aktien erfolgt schneller und effizienter.
  3. Technologie: Azure AI Search, Azure Container Apps, Azure DevOps, Azure Document Intelligence, Azure Monitor, Docker, FastAPI, JavaScript, LangChain, Linux, NumPy, Object Storage, OpenAI, Pandas, Python, React, REST, SharePoint, Terraform

Datenintegration für Vermögensverwaltung

Flossbach von Storch SE

Banken und Finanzdienstleistungen

250-500 Mitarbeiter

  1. Rolle: Data Engineer — Platform Architect
  2. Beschreibung: Leitende Konzeption und Entwicklung umfangreicher ETL-Prozesse mit Databricks (Spark) zur Integration von Kunden-, Depot- und Portfoliodaten sowie zur Erstellung automatisierter E-Mail-Reportings. Die Lösung legt Unternehmensstandards für die ETL-Entwicklung fest und stellt eigene Python-Hilfsdienste für Überwachung und Datenmanagement bereit, um die Effizienz und Betriebsstabilität der Datenversorgung nachhaltig zu verbessern.
  3. Technologie: Apache Spark, Azure Container Apps, Azure DevOps, Databricks, Django, NumPy, Object Storage, Pandas, Parquet, Postgres, PySpark, Python, REST, Snowflake, SQL

Zertifikate

CISSP – Certified Information Systems Security Professional

ISC2

2024

Certified Data Scientist Specialized in Data Analytics

Fraunhofer

2019

Certified Data Scientist Specialized in Big Data Analytics

Fraunhofer

2019


Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden