06.11.2025 aktualisiert


verifiziert
Premiumkunde
nicht verfügbarData & AI Engineer — Platform Architect
Köln, Deutschland
Weltweit
M.Sc. Computer and Systems SciencesSkills
ProxmoxAnwendungsdesignTrainingsdatenKubernetes-SicherheitSql Data WarehouseHTMLJavascriptAPIsAgile MethodologieKünstliche IntelligenzAirflowAmazon Web ServicesAmazon S3Data AnalysisAnwendungssicherheitArchitekturComputer VisionAuthentifizierungsprotokolleAutomatisierungUnit TestingMicrosoft AzureBash ShellBusiness IntelligenceBig DataUnternehmensberatungCertified Information Systems Security ProfessionalClickstreamSaasCloud ComputingCloud-SicherheitCloud-EngineeringCloud-SpeicherClusteranalyseComputer-ClusterInformationssicherheitContinuous IntegrationDagsData ArchitectureDatenvalidierungInformation EngineeringData GovernanceWeb ScrapingDateninfrastrukturData IntegrationDatenintegritätETLDatenmanagementData MartDatenmodellDatensicherheitDatenstrukturDaten-VirtualisierungData WarehousingIBM DB2DatenbankanwendungRelationale DatenbankenDatenbank-VerschlüsselungDB2 SQLDesign ThinkingLinuxDevopsDisaster-Recovery-PlanDistributed Data StoreDistributed ComputingDjangoAmazon DynamodbElasticsearchHandelsplattformAktienhandelFailoverFöderierte IdentitätForecastingGithubSteuerungGraphdatenbankApache HadoopHadoop Distributed File SystemMapReduceHaproxyApache HiveIaasIdentitätsmanagementBildverarbeitungIterative EntwicklungInformation RetrievalData IntelligenceIteratives DesignJsonPythonKernel-Based Virtual Machine (KVM)PostgresqlLineare RegressionLinux-AdministrationLinux ServersMachine LearningProjektmanagementMicrosoft Sql-ServerMQTTNatural Language ProcessingNeo4JNetzwerküberwachungNosqlOauthOLAP CubeOpen Source SoftwareOpen Source IntelligenceOwaspPaasPassword VaultPredictive AnalyticsVermögensverwaltungScrumPrototyping (Softwareentwicklung)RabbitmqTelemetrieRedisRegressionstestAnsibleBlockchainPublish SubscribeTensorflowPrometheusSmart ContractsDataOpsSchreiben von DokumentationAnforderungsanalyseReverse-ProxySamlSupply Chain ManagementWertpapiermarktSicherheitstestsSensorfusionServer AdministrationSiemSimulationenSoftwareentwicklungSQLStakeholder ManagementBörsenGeschäftsstrategienStreamingNachhaltigkeitSystem DesignZeitreihenanalyseTokenizationTypescriptVirtualizationWeb ApplikationenYAMLEnterprise SearchJupyter NotebookParquetSupervised LearningSSL-ZertifikatsmanagementWertpapiereTransaktionsverarbeitung (Datenverarbeitung)TestenHochverfügbarkeits-ClusterUrsachenanalyseGoogle CloudCloud PlatformMetrikenDatenklassifizierungEchtzeitsystemeFeature-EngineeringChatbotsData ScienceEvent-driven ArchitectureZeitreihendatenbankenDocument MetadataPytorchFlaskLarge Language ModelsSnowflakeData Build Tool (dbt)GrafanaRandom ForestApache SparkKostenoptimierungInternet Of ThingsLasttestsAws LambdaChange Data CaptureInfrastructure as Code (IaC)KerasDatenstrategieGitlabGitFastapiKanbanEvent Driven ArchitectureMicrosoft Fabric (Analytics-Plattform)PytestSpark MllibContainerisierungData LakePysparkGitlab-CiGit FlowScikit-learnKubernetesData LineageApache FlinkHuggingFaceAvroRancherAWS GlueComplex Event ProcessingBlankes MetallXgboostDaskGoogle BigqueryCloudflareAWS FargateEthereumEchtzeitdatenSolidityApache KafkaNicht-relationale DatenbankEvent StoreSuchmaschinenDistributed LedgerAzure AKSSpark StreamingDatenmanagementMachine Learning OperationsDSGVOPrestoBitcoinEvent-SourcingDatenbanküberwachungKibanaTerraformDocument ClassificationCrypto CurrencyGrpcStream AnalyticsErkennung von AnomalienAWS EKSAmazon Elastic Mapreduce (EMR)DockerUnsupervised LearningStatic Application Security TestingAmazon RedshiftDatabricksGolangData CachingCrudMicroservicesDynamic Application Security Testing
René Zahrte
Data & AI Engineer — Platform Architect
Ich bin freiberuflicher Informatiker und habe mich auf die Entwicklung ganzheitlicher Daten- und KI-Systeme spezialisiert, die Unternehmen dabei unterstützen, ungenutzte Daten gezielt in wertvolle Erkenntnisse zu verwandeln. Ich helfe Ihnen, eine skalierbare und sichere Datenplattform aufzubauen, Prozesse effizient zu automatisieren und innovative KI-Anwendungen zu entwickeln – damit Sie das volle Potenzial Ihrer Daten ausschöpfen und Ihr Unternehmen fit für eine souveräne digitale Zukunft machen können. Abhängig von Ihrer IT-Strategie setze ich dabei entweder auf bewährte, verwaltete Cloud-Dienste oder auf moderne, selbstverwaltete Open-Source-Lösungen.
- Strategische Beratung & Anforderungsanalyse
- Strategieentwicklung
- Technologische Evaluierung, Architekturentscheidungen
- Roadmap-Erstellung
- Data Engineering & Systemarchitektur
- Batch Processing, Event Streaming, Datenintegration (ETL/ELT)
- Data Mesh, Master Data, Data Warehouse (DWH)
- Datenmodellierung, Datenmanagement
- Machine Learning & Künstliche Intelligenz
- Sprachverarbeitung (NLP, RAG, LLM Agents)
- Bildverarbeitung (OCR, Computer Vision)
- Evaluierung, Labeling, Fine-Tuning, Vektorsuche
- Softwareentwicklung & Automatisierung
- APIs, Skripte, Dashboards, Chatbots, Web Apps
- Python, SQL, Bash, Go, JavaScript, HTML
- DevOps, Infrastructure-as-Code, CI/CD, Agile Softwareentwicklung (Kanban, Scrum)
- Cloud Computing & Virtualisierung
- AWS, Azure, Google Cloud, Hetzner, Cloudflare
- Kubernetes, Microservices, Containerisierung, Linux
- Hybrid Cloud, Self-Hosting, Bare-Metal, Networking
- Cybersecurity & Governance
- Datensicherheit, Datenschutz, Richtlinien, Standards
- Identity & Access Management, Secret Management, Software Testing
- Monitoring, Logging, Observability (Metrics, Logs, Traces, Profiles)
- Betrieb & Support
- Dokumentation, Übergabe
- Wartung, Updates
- Nachhaltigkeit, Optimierung
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
- Rolle: Data Engineer — Platform Architect
- Beschreibung: Leitende Konzeption und Entwicklung eines Real-Time Data Warehouse (DWH) mit Kafka, Snowflake und dbt als zentrale Datenbasis (OLAP) für stochastische Simulationen zur kontinuierlichen Optimierung von Lieferketten im Lebensmittelhandel. Das Datenmodell folgt einer Medallion-Architektur und setzt einen Data-Mesh-Ansatz um. Die Lösung wird auf Kubernetes betrieben und durch ein umfassendes Monitoring- und Logging-System mit Prometheus, Loki und Grafana ergänzt, um einen hochverfügbaren und systemkritischen Betrieb, unter Einhaltung von SLAs, sicherzustellen.
- Technologie: Apache Kafka, dbt, Docker, GitLab, Google Cloud, Grafana, Kubernetes, Linux, Loki, Mimir, Prometheus, Python, Snowflake, SQL, Terraform
- Rolle: Data & AI Engineer — Platform Architect
- Beschreibung: Leitende Konzeption und Entwicklung eines KI-Systems (RAG) zur Beschleunigung fundamentaler Unternehmensanalysen in der Vermögensverwaltung. Die Lösung kombiniert einen Chatbot (LLM Agent) mit einer Vektorsuche und einem zentralen Dokumentenmanagementsystem. Sie verarbeitet große Mengen an PDF-Dokumenten mittels OCR, implementiert eine umfassende Tagging-Strategie und erfasst zahlreiche Metadaten. Dadurch werden Informationen deutlich zugänglicher und die Bewertung von Aktien erfolgt schneller und effizienter.
- Technologie: Azure AI Search, Azure Container Apps, Azure DevOps, Azure Document Intelligence, Azure Monitor, Docker, FastAPI, JavaScript, LangChain, Linux, NumPy, Object Storage, OpenAI, Pandas, Python, React, REST, SharePoint, Terraform
- Rolle: Data Engineer — Platform Architect
- Beschreibung: Leitende Konzeption und Entwicklung umfangreicher ETL-Prozesse mit Databricks (Spark) zur Integration von Kunden-, Depot- und Portfoliodaten sowie zur Erstellung automatisierter E-Mail-Reportings. Die Lösung legt Unternehmensstandards für die ETL-Entwicklung fest und stellt eigene Python-Hilfsdienste für Überwachung und Datenmanagement bereit, um die Effizienz und Betriebsstabilität der Datenversorgung nachhaltig zu verbessern.
- Technologie: Apache Spark, Azure Container Apps, Azure DevOps, Databricks, Django, NumPy, Object Storage, Pandas, Parquet, Postgres, PySpark, Python, REST, Snowflake, SQL