Nice to Have: Certifications: Microsoft Power Platform certifications, such as Power Apps Developer or Power Automate Developer. Experience with other technologies: Familiarity with other low-code development platforms, such as Salesforce or Google App Maker.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Mein Arbeitgeber Wir suchen eine erfahrene Führungspersönlichkeit, die den Bereich CRM Services innerhalb eines modern strukturierten IT-Clusters leitet Die Rolle ist Teil einer internationalen Unternehmensgruppe im Handel und verantwortet zentrale IT-Produktlandschaften, die in mehreren europäischen Ländern eingesetzt werden Gesamtverantwortung für die Produktfamilie CRM Services (Customer Communication, Customer Data & GDPR, Customer Engagement, Customer Loyalty) Führung und Weiterentwicklung mehrerer Product Owner sowie indirekter IT-Teams (Business Analysts, Developer, Projektmanager, Architects) Steuerung der Produktstrategie und Priorisierung vielfältiger Anforderungen aus mehreren europäischen Ländern Enge Zusammenarbeit mit internationalen Stakeholdern sowie angrenzenden Produktfamilien (Digital Touchpoints, CRM Data & Insights) Sicherstellung einer skalierbaren, datenschutzkonformen CRM-Systemlandschaft Förderung einer modernen Produktkultur und Mentoring von Führungskräften Verantwortlich für Delivery-Qualität, Produkt-Roadmap und Governance Profunde Erfahrung als Chief Product Owner, Head of Product oder in vergleichbarer Rolle Nachweisbare Führungserfahrung - idealerweise mit Führung von Führungskräften Tiefes Verständnis von CRM-Technologien, Kundenprozessen und digitalen Marketing-Ökosystemen Erfahrung in komplexen IT-Organisationen oder internationalen Konzernen Vorteilhaft: Branchenkenntnisse im Handel / Retail Sehr gute Englischkenntnisse sowie sichere Kommunikation im internationalen Umfeld Bereitschaft zu gelegentlichen Dienstreisen Eine langfristige und abwechslungsreiche Tätigkeit in einem stabilen, verlässlichen Unternehmen mit starkem Teamzusammenhalt Umfassende Weiterbildungs- und Entwicklungsmöglichkeiten – inklusive 5 % der Arbeitszeit für selbstorganisierte Weiterbildung Attraktive Mitarbeiter-Vorteile, z.B.
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Mein Arbeitgeber Wir suchen eine erfahrene Führungspersönlichkeit, die den Bereich CRM Services innerhalb eines modern strukturierten IT-Clusters leitetDie Rolle ist Teil einer internationalen Unternehmensgruppe im Handel und verantwortet zentrale IT-Produktlandschaften, die in mehreren europäischen Ländern eingesetzt werden Gesamtverantwortung für die Produktfamilie CRM Services (Customer Communication, Customer Data & GDPR, Customer Engagement, Customer Loyalty)Führung und Weiterentwicklung mehrerer Product Owner sowie indirekter IT-Teams (Business Analysts, Developer, Projektmanager, Architects)Steuerung der Produktstrategie und Priorisierung vielfältiger Anforderungen aus mehreren europäischen LändernEnge Zusammenarbeit mit internationalen Stakeholdern sowie angrenzenden Produktfamilien (Digital Touchpoints, CRM Data & Insights)Sicherstellung einer skalierbaren, datenschutzkonformen CRM-SystemlandschaftFörderung einer modernen Produktkultur und Mentoring von FührungskräftenVerantwortlich für Delivery-Qualität, Produkt-Roadmap und Governance Profunde Erfahrung als Chief Product Owner, Head of Product oder in vergleichbarer RolleNachweisbare Führungserfahrung - idealerweise mit Führung von FührungskräftenTiefes Verständnis von CRM-Technologien, Kundenprozessen und digitalen Marketing-ÖkosystemenErfahrung in komplexen IT-Organisationen oder internationalen KonzernenVorteilhaft: Branchenkenntnisse im Handel / RetailSehr gute Englischkenntnisse sowie sichere Kommunikation im internationalen UmfeldBereitschaft zu gelegentlichen Dienstreisen Eine langfristige und abwechslungsreiche Tätigkeit in einem stabilen, verlässlichen Unternehmen mit starkem TeamzusammenhaltUmfassende Weiterbildungs- und Entwicklungsmöglichkeiten – inklusive 5 % der Arbeitszeit für selbstorganisierte WeiterbildungAttraktive Mitarbeiter-Vorteile, z.B.
In der Zentralfunktion Group IT Services in der Abteilung Integration (Bereich Data Management) suchen wir zum nächstmöglichen Zeitpunkt einen "Product Owner (m/w/d)" zur Gestaltung unserer Integrationslandschaft. Darauf hast Du Lust: In dieser Rolle übernimmst Du die Konzeption, Umsetzung, Steuerung und Optimierung von IT-Integrationslösungen zur Anbindung heterogener Systeme, Anwendungen und Plattformen.
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
Knowledge of data modeling and experience in designing analytical data structures. Experience with common Data Science & AI frameworks, such as pandas, scikit‑learn, PyTorch or TensorFlow. Optional: Basic familiarity with Git or Linux is a plus, but not required. Background in supporting or driving enterprise AI transformation processes.
What you will do Own and evolve the Commerce Cloud’s AWS infrastructure through the application of Infrastructure-as-Code (IaC) principles to ensure scalability, high availability, and cost efficiency Design, implement, and optimize CI/CD pipelines and operational workflows utilizing tools such as GitLab CI, AWS CloudFormation, and Terraform. Establish and enforce comprehensive, high-quality documentation for all infrastructure, operational playbooks, and critical architecture decisions Act as a subject matter expert and trusted advisor, partnering with application development teams to architect and provision infrastructure that meets their specific workload requirements Drive collaborative efforts with GCP Platform Engineers on cross-cloud initiatives and work closely with Information Security Engineers to design and implement security controls and governance policies.
Über uns Wir entwickeln und betreiben eine cloudbasierte SaaS-Plattform auf AWS & Kubernetes für den regulierten Betrieb und suchen dich als Platform Security Engineer, der/die Security von der Architektur bis zum Betrieb lebt.Abgeschlossenes Studium der Informatik, IT-Sicherheit oder vergleichbare Qualifikation Mehrjährige Erfahrung im Bereich Cloud Security Engineering oder Platform Security, idealerweise im regulierten Umfeld Erfahrung mit PAM-Lösungen, vorzugsweise CyberArk Privilege Cloud Gute Kenntnisse in Vulnerability Management, Security Monitoring, Incident Handling Erfahrung mit Git, Infrastructure as Code und Automatisierung Freude an Teamarbeit, offener Kommunikation und einer Ende-zu-Ende Verantwortung ohne Silodenken Gute Deutsch- und Englischkenntnisse in Wort und Schrift Was uns wichtig ist Teamspirit vor Ego: Du arbeitest gerne mit anderen Disziplinen zusammen und siehst Security als Enabler, nicht als Blocker Automation first: Du möchtest Security-Prozesse standardisieren und automatisieren, nicht manuell verwalten Hands-on-Mentalität: Du konzipierst nicht nur, du implementierst auch
Ein Unternehmen mit tief verwurzelten Traditionen und einer klaren Vision für die Zukunft! Dafür suchen wir Macher, Schaffer, Gestalter, Überzeugungstäter, also vielleicht genau jemanden wie Dich als Cloud Platform Architect (m/w/d).
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt mehrere Software Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt mehrere Software Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt einen Test Automation Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt einen Test Automation Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Reporting directly to the CEO and operating as part of the executive leadership team, you will define how Lasernet Group continues to create value on top of leading ERP platforms such as Microsoft Dynamics 365, SAP, and ERP environments used by financial institutions and other complex enterprises. This is a strategic and visionary product leadership role.
Reporting directly to the CEO and operating as part of the executive leadership team, you will define how Lasernet Group continues to create value on top of leading ERP platforms such as Microsoft Dynamics 365, SAP, and ERP environments used by financial institutions and other complex enterprises. This is a strategic and visionary product leadership role.
Aktuell arbeiten mehr als 500 Mitarbeiter*innen an folgenden Standorten für uns: Leipzig (Internationaler Hauptsitz)KölnItalienWir suchen Menschen, die mit Leidenschaft und Engagement ihre vielseitigen Fähigkeiten zur Realisierung innovativer Batteriespeicherlösungen einbringen und unsere Produkte noch leistungsfähiger und attraktiver machen.
Für unseren internationalen Kunden, einen der größten Anbieter energieeffizienter, ressourcenschonender Technologien, suchen wir eine/n Betriebsspezialist EDI Service (m/w/d) . Ihre Aufgaben Betrieb von Java und C++ Applikationen in einer Opendhift Platform im PAAS (Platform as a Service) Betriebsmodus Entwicklerunterstützung bei der Portierung bestehender Applikationen in die Container Technologie Betrieb und Entstörung einer komplexen Applikationslandschaft im Bereich von EDI ( Electronic Data Interchange) Komponenten Wartung und Pflege einer selbst erstellten CI (Continuous Integration)/CD (Continuous Deployment) Umgebung im Umfeld von IDOIT/Jenkins/Rundeck/Openshift/HELM/NEXUS/RPM Entstörung von Java-Applikationen in Containern Ihr Profil Fachbezogene Ausbildung Fortgeschrittene Kenntnisse in Apache / Tomcat Fortgeschrittene Kenntnisse in Shell Scripting Grundkenntnisse in C++/Java Programmierung Das klingt nach einer spannenden Aufgabe für Sie?
Für unseren internationalen Kunden, einen der größten Anbieter energieeffizienter, ressourcenschonender Technologien, suchen wir eine/n Betriebsspezialist EDI Service (m/w/d). Ihre Aufgaben Betrieb von Java und C++ Applikationen in einer Opendhift Platform im PAAS (Platform as a Service) Betriebsmodus Entwicklerunterstützung bei der Portierung bestehender Applikationen in die Container Technologie Betrieb und Entstörung einer komplexen Applikationslandschaft im Bereich von EDI ( Electronic Data Interchange) Komponenten Wartung und Pflege einer selbst erstellten CI (Continuous Integration)/CD (Continuous Deployment) Umgebung im Umfeld von IDOIT/Jenkins/Rundeck/Openshift/HELM/NEXUS/RPM Entstörung von Java-Applikationen in Containern Ihr Profil Fachbezogene Ausbildung Fortgeschrittene Kenntnisse in Apache / Tomcat Fortgeschrittene Kenntnisse in Shell Scripting Grundkenntnisse in C++/Java Programmierung Das klingt nach einer spannenden Aufgabe für Sie?
Unseren Leitsatz PASSION CREATES INNOVATION leben wir mit Überzeugung. Und das so erfolgreich, dass wir unser Team erweitern. Derzeit suchen wir einen Mitarbeiter (m/w/d) als SPECIALIST OPERATIONAL TECHNOLOGY & DATA ANALYTICS Ref.-Nr. 6001 Eintrittsdatum ab sofort Einsatzort Lohne Beschäftigungsausmass in Vollzeit Im Rahmen unserer Digitalisierungsoffensive bei POLYTEC suchen wir einen Specialist OT & Data Analytics für die Abteilung Corporate IT Applications & OT.
Mein Arbeitgeber Für unseren Kunden im Medizintechnik-Umfeld sind wir auf der Suche nach einem Python Engineer für webbasierte Diagnose-Applikationen sowie zur Umsetzung von Predictive-Maintenance-Funktionen. Unterstützung bei der Entwicklung und Implementierung neuer Features, um die Backend-Funktionen entsprechend der diagnostischen Workflows und Nutzeranforderungen zu erweitern Weiterentwicklung der Diagnostik-Plattform von einem lokalen Monolithen hin zu einer modularen Architektur Durchführung von Bugfixes, um die Stabilität der Plattform sicherzustellen und einen zuverlässigen Langzeitbetrieb zu gewährleisten Mitarbeit an Code-Reviews, um Codequalität, Wartbarkeit und Konsistenz innerhalb des gesamten Backend-Codebestands zu verbessern Abgeschlossenes Studium in Informatik, Software Engineering oder einem verwandten Fachgebiet Fundierte Erfahrung in Python-Entwicklung und Backend-Architektur Nachgewiesene Erfahrung mit Flask/Django, Microservices und Containerisierung Fundiertes Verständnis von RESTful APIs, modularen Designprinzipien und Datenbanktechnologien (PostgreSQL, MySQL oder NoSQL).
In der Zentralfunktion IT der Zeppelin GmbH am Standort Garching bei München suchen wir zum nächstmöglichsten Zeitpunkt einen „Head of Division Platforms & Infrastructure (m/w/d)“: Darauf haben Sie Lust: Als „Head of Division Platforms & Infrastructure (m/w/d)“ übernehmen Sie die Gesamtverantwortung für den stabilen, sicheren und zukunftsfähigen Betrieb der IT-Infrastruktur von ZeppelinSie gestalten und steuern die Transformation der IT-Landschaft hin zu modernen, cloudorientierten und hochautomatisierten PlattformenDabei entwickeln Sie eine nachhaltige Cloud‑ und Hosting‑Strategie mit Fokus auf Skalierbarkeit, Resilienz, Automatisierung und WirtschaftlichkeitSie verantworten die Weiterentwicklung der konzernweiten Plattformarchitektur – einschließlich Standardisierung, Infrastructure as Code und serviceorientierten BetriebsmodellenSie führen mehrere spezialisierte Teams fachlich und disziplinarisch (z.
Aktuell arbeiten mehr als 500 Mitarbeiter*innen an folgenden Standorten für uns: Leipzig (Internationaler Hauptsitz)KölnItalienWir suchen Menschen, die mit Leidenschaft und Engagement ihre vielseitigen Fähigkeiten zur Realisierung innovativer Batteriespeicherlösungen einbringen und unsere Produkte noch leistungsfähiger und attraktiver machen.
Mein Arbeitgeber Für unseren Kunden im Medizintechnik-Umfeld sind wir auf der Suche nach einem Python Engineer für webbasierte Diagnose-Applikationen sowie zur Umsetzung von Predictive-Maintenance-Funktionen. Unterstützung bei der Entwicklung und Implementierung neuer Features, um die Backend-Funktionen entsprechend der diagnostischen Workflows und Nutzeranforderungen zu erweiternWeiterentwicklung der Diagnostik-Plattform von einem lokalen Monolithen hin zu einer modularen ArchitekturDurchführung von Bugfixes, um die Stabilität der Plattform sicherzustellen und einen zuverlässigen Langzeitbetrieb zu gewährleistenMitarbeit an Code-Reviews, um Codequalität, Wartbarkeit und Konsistenz innerhalb des gesamten Backend-Codebestands zu verbessern Abgeschlossenes Studium in Informatik, Software Engineering oder einem verwandten FachgebietFundierte Erfahrung in Python-Entwicklung und Backend-ArchitekturNachgewiesene Erfahrung mit Flask/Django, Microservices und ContainerisierungFundiertes Verständnis von RESTful APIs, modularen Designprinzipien und Datenbanktechnologien (PostgreSQL, MySQL oder NoSQL).Vertrauheit mit CI/CD-Tools und Monitoring-LösungenAusgeprägte Problemlösungsfähigkeiten und die Fähigkeit, in einem schnelllebigen Umfeld zu arbeitenErfahrung im Bereich Equipment Intelligence und/oder im Service-Domain-Kontext ist von Vorteil Spanendes Projekt bei einem renommierten Unternehmen mit Startup Charakter Ihr Kontakt Referenznummer 864923/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Design and implement a SQL-based landing zone for regulatory data Develop stored procedures for transformation, enrichment, and aggregation Build and operate high-volume batch processing chains for monthly/quarterly cycles Implement SSIS-based ingestion flows and job orchestration Ensure data quality, technical lineage, and full traceability across layers Define and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templates Perform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQL Hands-on experience with stored-procedure-driven ETL and complex data models Solid SSIS skills for orchestration and control of processing chains Experience with batch processing, logging, restartability, and performance tuning Knowledge of data lineage, reconciliation, and regulatory processing needs Experience with reporting platforms such as Tagetik is a plus Familiarity with Oracle source systems is advantageous Renowned Client Remote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Unsere Mission: Eine KI-Plattform der Spitzenklasse aufbauen. Wir suchen keine Verwalter des Status quo, sondern Architekten der Zukunft. Du entwickelst den technologischen Maschinenraum (Kubernetes, AI-Stack), der unsere Innovationen antreibt; sicher, skalierbar und state-of-the-art.
Aktuell arbeiten mehr als 500 Mitarbeiter*innen an folgenden Standorten für uns: Leipzig (Internationaler Hauptsitz)KölnItalienWir suchen Menschen, die mit Leidenschaft und Engagement ihre vielseitigen Fähigkeiten zur Realisierung innovativer Batteriespeicherlösungen einbringen und unsere Produkte noch leistungsfähiger und attraktiver machen.
Design and implement a SQL-based landing zone for regulatory dataDevelop stored procedures for transformation, enrichment, and aggregationBuild and operate high-volume batch processing chains for monthly/quarterly cyclesImplement SSIS-based ingestion flows and job orchestrationEnsure data quality, technical lineage, and full traceability across layersDefine and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templatesPerform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQLHands-on experience with stored-procedure-driven ETL and complex data modelsSolid SSIS skills for orchestration and control of processing chainsExperience with batch processing, logging, restartability, and performance tuningKnowledge of data lineage, reconciliation, and regulatory processing needsExperience with reporting platforms such as Tagetik is a plusFamiliarity with Oracle source systems is advantageous Renowned ClientRemote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
What makes you stand out You hold a degree in Business Informatics, Data Science, Computer Science, Industrial Engineering, Business Administration, or a comparable field.You have several years of experience in building, operating, or further developing data‑driven products—ideally in a sales, marketing, or customer service context.You have solid knowledge in designing and developing cloud‑based data products such as data warehouses, semantic layers, analytical models, and reporting and analytics solutions.You possess strong knowledge of data architectures, data engineering, data science, and data governance.You bring experience in leading interdisciplinary teams both functionally and disciplinarily—ideally including Data Engineers, Data Scientists, Product Owners, and Data Governance roles.You demonstrate strong analytical and conceptual thinking skills and the ability to prepare complex topics in a structured and understandable way.You communicate effectively and are able to bridge different target groups (business & tech).You work with strong execution and results orientation while ensuring high data quality.You have excellent German and English skills, both written and spoken.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least seven years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Benefits Hybrid working Täglich frisches Obst Sportkurse Freier Zutritt zur code.talks Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Kostenloser Laracasts Account Company Events Relocation Unterstützung Mobilitätszuschlag State-of-the-art Technologien Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU.
Stellenbeschreibung Wir suchen für ein Unternehmen aus der Energiebranche für den Standort Markleeberg einen Full stack developer/ Geodaten-Entwickler (m/w/d) vorerst befristet bis zum 31.08.2026, Übernahme/ Verlängerung möglich Die "Information Platform of Energy Networks (iPEN)" bündelt Daten und Informationen aus zahlreichen nationalen und internationalen Netzbetreibern. iPEN hat damit eine zentrale, verbindende Funktion aller Daten im Konzern.
•Hands-on experiences with cloud services (IaaS & PaaS). •Scripting capabilities for Azure and Google platforms such as Bash, PowerShell, Python, Javascript. •General networking skills and understanding of network stack in cloud providers. •Experiences with senior stakeholder management and strong communication /presentation skills.
Principal Accountabilities Primary focus is on pre-sales technical support for IQVIAs Incentive Compensation solution built on the Orchestrated Analytics ecosystem which spans MDM, data warehousing, AI/ML, and data visualisation technology solutions. Secondary support could include solutions such as Promotional Mix Modelling, Targeting Optimiser, and other offeringsDemonstrating innovative SaaS solutions that showcase how our current and prospective clients can achieve their business goals, through applying technology and analytics to transform disparate data sources into actionable insightsProvides technical knowledge, advice and support to customers, understanding their business requirements and technology stack, to maximize the benefits derived from IQVIAs products and/or servicesWorks with the sales teams during the sales process to maximize the benefits derived from the IQVIAs products and/or servicesProvides technical input for bid proposals, projects and technical documents within sales process, and should identify additional opportunitiesProvides pre-sale technical support in sales presentation and product presentations at customer sitesOwns Proof of Concepts based on customer requirements to demonstrate feasibility of the application, often requiring rapid prototyping and/or product demo for clientsVoice of the clients and sales back to Product and Engineering teams to ensure feedback is captured and initiatives are executed Desired Skills and Attributes Demonstrated work ethic and capability to be self-starterDemonstrated experience working with top tier clients in understanding their businesses and crafting technical solutionsTechnical experience, especially with enterprise platforms catered towards Field Sales Teams, Sales Leadership and Sales Operations audience.A good understanding of sales force effectiveness domain and proven experience with analytical decision-making platforms would be of additional benefitOutstanding communication skills, particularly in conveying technical concepts in a manner that is easy for clients and non-technical partners to understandExcellent quantitative skills and comfort with data exploration toolsDemonstrated experience in owning projects end to end that involves coordinating many resources and teamsExcellent organizational skills and attention to detailExcellent troubleshooting, analytical and problem-solving abilities with a tenacious commitment to finding the root cause of issuesAbility to work under intense pressure and multitask in a fast-paced start-up environmentAbility to energize and lead a team of partner engineers Our ideal candidate will have: Typically requires a minimum of 3 years of related experience with a Bachelor’s degree At IQVIA, we believe in pushing the boundaries of human science and data science to make the biggest impact possible – to help our customers create a healthier world.
Stellenbeschreibung Für unseren namhaften Kunden in Norddeutschland suchen wir einen erfahrenen Data Engineer (m/w/d) für den Standort Nähe Bremen. Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen.
Studiengänge Einsatzbereich | Praktikum/Abschlussarbeit im Bereich Data Science Dauer | 3-6 Monate Bestens gefordert | Wir suchen motivierte Studierende, die sich unserem Data Science Team für ein Pflichtpraktikum und/oder eine Bachelor-/Masterarbeit (3-6 Monate) anschließen möchten.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least two years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
Familiarity with platforms like SCAYLE, Salesforce Commerce Cloud, CommerceTools, SAP Commerce Cloud (Hybris), or Shopify Plus. Understanding of international ecommerce challenges such as localization, tax, fulfillment, and compliance. Fluency in German is a strong plus. Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg on a weekly basis.
Stellenbeschreibung Für unseren namhaften Kunden in Norddeutschland suchen wir einen versierten Senior Data Engineer (m/w/d) am Standort Hamburg. Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen.
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
Wir entwickeln, produzieren und vertreiben Produkte, Dienstleistungen und Softwarelösungen für die Fertigung, Montage und den Service von Luftleitsystemen (B2B). Zur Verstärkung unseres IT- und Software-Teams suchen wir eine engagierte Persönlichkeit, die unsere Systeme betreut, Prozesse automatisiert und die technische Basis für zukünftige KI-Anwendungen schafft.
Wir entwickeln, produzieren und vertreiben Produkte, Dienstleistungen und Softwarelösungen für die Fertigung, Montage und den Service von Luftleitsystemen (B2B). Zur Verstärkung unseres IT- und Software-Teams suchen wir eine engagierte Persönlichkeit, die unsere Systeme betreut, Prozesse automatisiert und die technische Basis für zukünftige KI-Anwendungen schafft.
Designing and implementing the ETL pipeline and MongoDB scheme Managing the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenance Integrating new data sources, including the development of robust parsers and text cleaning workflows Enhancing the user experience (e.g., building a data warehouse and APIs) User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experience Experience with NoSQL/MongoDB database Experience or knowledge of ETL orchestration tools, such as Airflow Good understanding in the area of Text Analytics/Mining, TDM, and LLMs Strong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Designing and implementing the ETL pipeline and MongoDB schemeManaging the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenanceIntegrating new data sources, including the development of robust parsers and text cleaning workflowsEnhancing the user experience (e.g., building a data warehouse and APIs)User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experienceExperience with NoSQL/MongoDB databaseExperience or knowledge of ETL orchestration tools, such as AirflowGood understanding in the area of Text Analytics/Mining, TDM, and LLMsStrong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
MID – Driving Continuous Transformation Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z.
Stellenbeschreibung Derzeit suchen wir für unseren Kunden aus dem Bereich Spedition in Verl einen IT-Projektmanager (m/w/d). Deine berufliche Zukunft liegt in Deinen Händen.
In der Zentralfunktion „Zeppelin IT“ der Zeppelin GmbH am Standort Garching bei München suchen wir zum nächstmöglichsten Zeitpunkt einen „Data Engineer (m/w/d)“. Darauf hast Du Lust: In deiner Rolle als „Data Engineer (m/w/d)“ bist Du verantwortlich für die Entwicklung, Pflege und Optimierung von Dateninfrastrukturen und -prozessen.
As part of our team, you will take on the following responsibilities: You plan, analyze, and optimize campaigns for new customer acquisition, cross-/upselling, reactivation, and churn prevention.You ensure complete tracking of all campaign activities and their success across all sales channels.You transform raw data into actionable insights for campaign optimization.You regularly analyze campaign data (leads, conversion rates, revenue contribution) and derive recommendations for action.You create reports and interactive dashboards for management and sales teams (e.g., in Power BI).You identify optimization opportunities to continuously improve campaign performance and develop and validate KPI logics for campaign tracking and success measurement.You ensure consistency and data quality across all systems and reports, and you use Microsoft Dynamics 365 and HubSpot for planning, execution, and tracking, leveraging data sources such as CRM, SAP, Snowflake.You use Power Query for data modeling and transformation.You develop and implement standardized workflows for campaign planning, execution, and evaluation.You ensure European-wide consistency of all campaign processes and coordinate with local contacts and sales teams (Inside Sales, Field Sales Channel Managers).You promote knowledge sharing across countries and teams, including lessons learned and best practices.
What makes you stand out You have a completed degree or are currently enrolled in a degree program in Marketing, Business Administration, Statistics, Data Analytics, Business Informatics, or a comparable field.You bring initial practical experience, ideally in a marketing or data‑driven environment.You have strong analytical skills and a solid understanding of numbers.You have first experience with analysis and reporting tools such as Excel/Google Sheets, Google Analytics, Looker Studio, Power BI, or Tableau.You have basic knowledge of marketing KPIs and performance marketing principles.You work in a structured, detail‑oriented, and solution‑focused manner.You have very good German and good English language skills.Ideally, you are interested in AI‑based analysis methods; first exposure to Amplitude is a plus.