Work with consolidation units, FS items, subitems, versions, and the ACDOCU table structure Support both periodic and year-to-date reporting activities Create and configure GRDC forms using the Manage Forms application Maintain and optimize forms to ensure accurate and efficient data collection Create and manage packages via the Manage Package app Define package steps, assign forms or folders, and configure data-entry context for users Design and maintain validation rules, ensuring proper behavior in the Data Monitor Use the Reported Data Validation task to resolve reported-data issues Manage visual and backend controls to ensure consistent data quality Understand GRDC data integration with ACDOCU and Group Reporting Work with Data Monitor task sequences such as Calculate Net Income Strong understanding of Group Reporting concepts and ACDOCU structure Experience with periodic vs. YTD reporting Hands-on experience in GRDC form design (Manage Forms) Experience with Package Management (Manage Package app) Ability to design validation rules and manage controls in the Data Monitor Solid understanding of GRDC ?
Work with consolidation units, FS items, subitems, versions, and the ACDOCU table structureSupport both periodic and year-to-date reporting activitiesCreate and configure GRDC forms using the Manage Forms applicationMaintain and optimize forms to ensure accurate and efficient data collectionCreate and manage packages via the Manage Package appDefine package steps, assign forms or folders, and configure data-entry context for usersDesign and maintain validation rules, ensuring proper behavior in the Data MonitorUse the Reported Data Validation task to resolve reported-data issuesManage visual and backend controls to ensure consistent data qualityUnderstand GRDC data integration with ACDOCU and Group ReportingWork with Data Monitor task sequences such as Calculate Net Income Strong understanding of Group Reporting concepts and ACDOCU structureExperience with periodic vs. YTD reportingHands-on experience in GRDC form design (Manage Forms)Experience with Package Management (Manage Package app)Ability to design validation rules and manage controls in the Data MonitorSolid understanding of GRDC ?
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Stellenbeschreibung Sie sind auf der Suche nach mehr als nur einem Job - Sie möchten einen Ort finden, an dem Ihre Fähigkeiten nicht nur gefragt, sondern auch wertgeschätzt werden?
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.
B. in Bezug auf Prozessabbildung oder Datenstrukturen) sind wünschenswertUnd vor allem: Sie passen menschlich gut zu uns, bringen Teamgeist mit und begeistern sich für datengetriebene Lösungen.Gestaltungsspielraum: Freuen Sie sich auf eine abwechslungsreiche und verantwortungsvolle Herausforderung, bei der Sie eigene Ideen einbringen und umsetzen können.Ein tolles Team: Arbeiten Sie in einem hochmotivierten Team mit viel Know-How und starkem Wir-Gefühl, das gemeinsam Großes erreicht.Ihre Stärken zählen: Wir suchen leidenschaftliche Persönlichkeiten mit Potenzial. Fachliches Wissen vermitteln wir Ihnen gerne, damit Sie Ihre Stärken voll entfalten können.Weiterentwicklung: Wir unterstützen Sie dabei, Ihre beruflichen Ziele zu erreichen und Ihr Potenzial voll auszuschöpfen.
Denn gute Organisation beginnt nicht nur im Heft – sondern auch im Team. Für unseren Standort in Hannover oder Burgwedel suchen wir zum nächstmöglichen Zeitpunkt einen Supply Chain Logistics Data Analyst (m/w/d). Deine Aufgaben In dieser Position bist du die analytische Schnittstelle zwischen Logistik, IT, Operations und externen Logistikdienstleistern.
Wir erwarten Sie – mit vielseitigen Aufgaben, engagierten Kolleg:innen, hoher sozialer Verantwortung und einem gemeinsamen Ziel – mutig und tatkräftig, mit Optimismus und Leidenschaft.. Auf der Suche nach neuen Herausforderungen? Machen Sie mit uns den nächsten beruflichen Schritt und bewerben Sie sich jetzt als BI und Data Analyst (m/w/d) im Controlling für den Standort Planegg bei München.
Wir suchen aktuell: Business/Data Analyst im Bereich Digitalisierung (m/w/d) in Böblingen Im Rahmen einer Arbeitnehmerüberlassung, suchen wir schnellstmöglich einen Business/Data Analyst im Bereich Digitalisierung (m/w/d) für den Standort Stuttgart.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Stellenbeschreibung Wir suchen für ein Unternehmen aus der Energiebranche für den Standort Helmstedt einen Project Manager Energy Data & Processes (m/w/d) in Teilzeit befristet bis zum 01.02.2027, Übernahme/ Verlängerung möglich Aufgaben: Eigenverantwortliche und selbstständige Aufbereitung, Prüfung und Plausibilisierung von Blindleistungsdaten sowie Klärung von Abweichungen und Meldungen mit externen Anbietern Unterstützung und Bereitschaft zur Ausführung der marktgestützten Blindleistungsbeschaffung mit Fokus auf abrechnungsrelevanten Daten, Fristenmanagement und Prozesskoordination Verantwortung für und Durchführung der Abrechnung der Blindleistungsbereitstellung gegenüber Netzbetreibern inkl.
Lass dich von uns empfehlen und profitiere von dem Zugang zu unveröffentlichten Stellenangeboten unserer Auftraggeber. Wir suchen im Rahmen der Direktvermittlung. Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensors Improve and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availability Act as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standards Improve and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysis Support in defining and improving image analysis methods and tools to derive quantitative feature values from images Extend the data infrastructure with additional information, e.g. from sensor performance characterization Data driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional education Professional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environment Experience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log files Ability to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teams Skills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunity Good communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentation Motivated team player with passion in promoting and driving fast-paced and ambitious projects Aptitude to understand and improve the underlying technical processes Proficiency in both English and German Unlimited project contract Fascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensorsImprove and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availabilityAct as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standardsImprove and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysisSupport in defining and improving image analysis methods and tools to derive quantitative feature values from imagesExtend the data infrastructure with additional information, e.g. from sensor performance characterizationData driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional educationProfessional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environmentExperience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log filesAbility to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teamsSkills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunityGood communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentationMotivated team player with passion in promoting and driving fast-paced and ambitious projectsAptitude to understand and improve the underlying technical processesProficiency in both English and German Unlimited project contractFascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
Data Center Advisory Lead (m/f/d) JLL Germany Wir sind ein schnell wachsendes, global vernetztes Data-Center-Unternehmen mit EMEA-weiter Präsenz. Aufgrund unseres rasanten Wachstums suchen wir eine engagierte und erfahrene Leitung für unser Data-Center-Geschäft in Deutschland. Diese verantwortungsvolle Position mit Umsatzverantwortung umfasst die Weiterentwicklung des JLL-Data-Center-Geschäfts in Deutschland mit einem beratungsorientierten Ansatz.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Prepare and structure topics, requirements, and stakeholder requests Answer stakeholder questions and create clear, reliable documentation Support and drive new projects from concept phase to implementation Manage and refine incoming requests via the team’s ticketing workflow Derive and define development tasks based on business and data needs Analyze data flows and assess the impact of changes on existing data deliverables Evaluate new data sources and identify opportunities for process optimization Ensure transparency and quality of KPIs and financial data Who you are: 1+ years of experience in a Technical Business Analyst, Data, or similar role Hands-on mentality and strong willingness to learn Experience working with data and IT systems Solid SQL skills (BigQuery is a plus) Understanding of data structures and data flows Basic programming knowledge is a nice to have Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
Für unseren Kunden in der Maschinenbaubranche in der Region Regensburg suchen wir einen Scrum Master (m/w/d). Was erwartet Sie? Prozessverantwortung für die Anwendung agiler Methoden innerhalb der ProduktentwicklungWeiterentwicklung, Etablierung und Betreuung agiler Arbeitsprozesse zusammen mit dem Management sowie mit relevanten Bereichen Vermittlung und Vertretung des agilen Mindset unter Zuhilfenahme geeigneter Methodiken und Techniken bei allen beteiligten Stakeholdern Zusammenarbeit mit unseren Entwicklungsteams, Product Owner und anderen Stakeholdern Unterstützung innerhalb der Teams, um Probleme und Konflikte zu erkennen und auch, um geeignete Lösungen zu finden Austausch mit anderen Scrum Masters/ Agilen Coaches, um neue Ideen und Erfahrungen zu generieren Was bringen Sie mit?
Dabei arbeitest Du wahlweise bei unserem Kunden vor Ort, bei MID oder aus Deinem Office. Übernehme intern sowie extern eine wichtige Rolle, denn wir suchen MIDgestalter:innen!Bei unserem Kunden bist Du für den Aufbau und die Weiterentwicklung eines BI-Systems – von der fachlichen Anforderung bis hin zum fertigen Report – verantwortlich.Du gestaltest aktiv Workshops, um Anforderungen aufzunehmen und bildest die Schnittstelle zwischen Fachabteilung und IT.Du erstellst Konzepte für ein Data Warehouse-Backend und modellierst diese in unserem Tool Innovator.Du gestaltest die Architektur des BI-Systems und entwickelst moderne Lösungen für ein Datenmodell.Du optimierst bestehende ETL-Prozesse und konzipierst ETL-Datenstrecken, um neue Datenquellen an das Data Warehouse anzubinden.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik oder eine vergleichbare Qualifikation hast Du abgeschlossen.
YOUR TASKS You develop impedance models for wind farms and battery energy storage systems in dq0 coordinates within a hybrid power plant setting You validate impedance models against EMT simulations and raw field measurement data You design control strategies for voltage and frequency control in hybrid power plants while considering coupling effects You perform tuning processes for PMS control loops in MATLAB/Simulink You contribute to improving impedance measurement methods and modelling workflows YOUR PROFILE You are enrolled in a Master's program in Electrical Engineering, Control Engineering, Power Systems or equivalent You have knowledge of electrical energy systems, ideally with exposure to wind energy You bring experience in MATLAB/Simulink or PSCAD, ideally including power system toolboxes You are interested in stability analysis, system modelling and control design Experience with converter control or wind farm control systems is an advantage You have programming skills in MATLAB; additional languages such as Python or C/C++ are a plus You work in a structured, analytical and self‑organized manner on complex technical topics DEINE BENEFITS Nordex bietet eine Vielzahl an attraktiven Benefits – hier findest du einen Auszug dessen, was Dich bei uns erwartet.
The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Clinical Data Manager (IRT) (m/w/d) in Vollzeit Klinische Studien HIER WERDEN SIE ARBEITEN: Sie sind auf der Suche nach einer neuen beruflichen Herausforderung? Dann sind Sie bei uns genau richtig. Als Personalexperten unterstützen wir verschiedene Firmen bei der Suche nach passenden Fach- und Führungskräften (m/w/d) und stehen Ihnen als Karriereberater zur Seite.
AbschlussarbeitenSie leisten einen aktiven Beitrag zur universitären Selbstverwaltung Wen suchen wir? Voraussetzung für die Einstellung ist ein abgeschlossenes wissenschaftliches Hochschulstudium im Bereich Umweltplanung, Landschaftsplanung, Umweltwissenschaften, Geographie, Geoinformatik, Meteorologie, Geoökologie oder verwandten Bereichen.
Design and implement a SQL-based landing zone for regulatory dataDevelop stored procedures for transformation, enrichment, and aggregationBuild and operate high-volume batch processing chains for monthly/quarterly cyclesImplement SSIS-based ingestion flows and job orchestrationEnsure data quality, technical lineage, and full traceability across layersDefine and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templatesPerform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQLHands-on experience with stored-procedure-driven ETL and complex data modelsSolid SSIS skills for orchestration and control of processing chainsExperience with batch processing, logging, restartability, and performance tuningKnowledge of data lineage, reconciliation, and regulatory processing needsExperience with reporting platforms such as Tagetik is a plusFamiliarity with Oracle source systems is advantageous Renowned ClientRemote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Mit mehr als 3.000 Mitarbeitenden schaffen wir Lösungen, die den Fortschritt in Präanalytik und Life Sciences entscheidend vorantreiben, um die Behandlungsqualität für die Patienten zu steigern und Standards in der Wissenschaft zu setzen. Für unseren Hauptstandort in Nümbrecht-Rommelsdorf suchen wir für den Bereich IT-Applikation zum nächstmöglichen Zeitpunkt einen (m/w/d) Data Engineer / BI Developer Zu den Aufgaben gehören: Konzeption, Entwicklung und Optimierung von Datenarchitekturen und Datenmodellen zur Unterstützung geschäftskritischer Prozesse Implementierung und Pflege von Analysemodellen und Dashboards in Qlik (Sense) Entwicklung und Optimierung von Schnittstellen zwischen SAP-Modulen (z.
Design and implement a SQL-based landing zone for regulatory data Develop stored procedures for transformation, enrichment, and aggregation Build and operate high-volume batch processing chains for monthly/quarterly cycles Implement SSIS-based ingestion flows and job orchestration Ensure data quality, technical lineage, and full traceability across layers Define and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templates Perform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQL Hands-on experience with stored-procedure-driven ETL and complex data models Solid SSIS skills for orchestration and control of processing chains Experience with batch processing, logging, restartability, and performance tuning Knowledge of data lineage, reconciliation, and regulatory processing needs Experience with reporting platforms such as Tagetik is a plus Familiarity with Oracle source systems is advantageous Renowned Client Remote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Business Analyst MES (m/w/d) Pharmaindustrie / SAP / PAS-X HIER WERDEN SIE ARBEITEN: Sie sind auf der Suche nach einer neuen beruflichen Herausforderung? Dann sind Sie bei uns genau richtig. Als Personalexperten unterstützen wir verschiedene Firmen bei der Suche nach passenden Fach- und Führungskräften (m/w/d) und stehen Ihnen als Karriereberater zur Seite.
Nach deinem Studium gestaltest du als Teil unseres SPIE-Teams aktiv die Energiewende mit. Dafür suchen wir dich als: Werkstudent m/w/d für Master-Stipendienprogramm "Empowering Change: SPIE Scholarship for Sustainable Solutions" Einsatzort: Düsseldorf Kennziffer: 2025-1090 Arbeitszeit: Geringfügig beschäftigt (befristet) Dein Aufgabenbereich Aktive Mitwirkung an der Umsetzung unserer Nachhaltigkeitsstrategie durch die Mitarbeit an internen sowie kundenbezogenen ProjektenErste Schritte in betrieblichen Prozessen und aktive Teilnahme an der Optimierung von Präsentationen und AuswertungenUnterstützung bei Recherche, Dokumentation und organisatorischen Tätigkeiten des ProjektteamsTeilnahme an Branchenveranstaltungen und Networking-Events Das bringst Du mit Du hast einen Bachelor-Abschluss in einem technischen Fachgebiet (z.
Entdecken Sie die Möglichkeiten, die SCHUNK in Mengen Ihnen bietet, und werden Sie Teil unserer Erfolgsgeschichte! Sie wollen Ihr Studium erfolgreich abschließen und suchen für die Erstellung Ihrer Bachelor- /Master- und Diplomarbeit einen engagierten Partner? Sie verknüpfen gerne Ihr theoretisches Wissen mit praktischen Tätigkeiten?
Sachbearbeiter m/w/d Sie sind Industriekaufmann, Kaufmännischer Sachbearbeiter, Bürokaufmann oder Mitarbeiter Personal und suchen am Standort Dortmund in Vollzeit nach einer neuen beruflichen Herausforderung? Das trifft sich gut! Die Position wird im Rahmen der Arbeitnehmerüberlassung besetzt.
Main Tasks and Responsibilities Continuous monitoring of all critical data center infrastructures (power, cooling, electricity, fire protection) Conducting regular inspection rounds and documenting system statuses Responding to alarms and fault messages according to established procedures Performing initial diagnostics for technical problems and initiating appropriate measures Documentation of all incidents, measures, and completed work Support with planned maintenance work and infrastructure projects Ensuring compliance with security guidelines and access controls Communication with customers and external service providers during on-site deployments Processing support requests during the shift Handover of relevant information to subsequent shift teams Requirements Profile Completed training in a technical profession (electrical engineering, IT systems electronics, mechatronics or comparable) Ideally first experience in data center environments or IT infrastructure Basic knowledge in power supply, climate technology, and network technology Understanding of the importance of critical infrastructure and its high availability Technical problem-solving understanding and methodical approach Fluent in German good English Team player with independent working style Resilience and ability to act calmly in emergency situations Basic knowledge in the use of DCIM and ticketing systems Additional Desirable Qualifications Initial experience with data center components such as UPS, HVAC systems, generators Basic knowledge of server and network hardware Understanding of security and compliance requirements in data centers Knowledge of MS Office and monitoring tools Class B driving license Working Environment Shift work according to shift schedule (early/late/night) State-of-the-art data center environment with strict security and quality standards Team-oriented work in a technically demanding environment Opportunity for continuous education and professional development Responsible position with direct influence on the operational security of critical IT infrastructure Additional Information Orientation: Comprehensive training on all systems and emergency procedures Location: On-site –Schwalbach, DEU If this job description resonates with you, we encourage you to apply even if you don’t meet all of the requirements.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least seven years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Benefits Hybrid working Täglich frisches Obst Sportkurse Freier Zutritt zur code.talks Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Kostenloser Laracasts Account Company Events Relocation Unterstützung Mobilitätszuschlag State-of-the-art Technologien Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU.
Für die GEFA BANK als Arbeitgeber sind Werte wie Verantwortung und Nachhaltigkeit ebenso wichtig wie Innovationskraft und Weiterentwicklung. Wir suchen Sie! Wir suchen zum nächstmöglichen Zeitpunkt für unser Team einen Datenqualitätsmanager Finance (w/m/*) für unsere Abteilung Finanzen in der Zentrale in Wuppertal.
Wir suchen aktuell: Senior Business Expert in Finance Analytics (w/m/d) – Team Member/ Overhead Reporting in Stuttgart Im Rahmen einer Arbeitnehmerüberlassung, suchen wir schnellstmöglich einen Overhead/ Reporting für den Standort Stuttgart.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least two years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
The Global Biostatistics (Data Sciences, Safety & Medical) team at IQVIA are experienced in submissions for all major regions; working together with key groups such as, Global Regulatory Affairs, Safety, Project and Data Management, and Medical Writing, to drive efficiency and accountability.
In addition, our online learning platform gives you access to a wide range of training courses and seminars.Well taken care of: You benefit from comprehensive social benefits such as a company pension scheme, Christmas gifts for employees’ children, employee gifts, a company cafeteria offering healthy meal options, and various employee discounts.Stay fit: We offer a variety of programs to support your health and well-being, including Wellpass, our Vital Workshop, and company sports groups.Health services: For health-related matters, you can consult our on-site occupational physicians and medical staff, as well as use our Orthopaedics Express Service.
Nice to Have: Certifications: Microsoft Power Platform certifications, such as Power Apps Developer or Power Automate Developer. Experience with other technologies: Familiarity with other low-code development platforms, such as Salesforce or Google App Maker.
Außerdem hast du die Möglichkeit, bis zu drei Monate in einer unserer Tochtergesellschaften weltweit zu verbringen. Was wir suchen Abitur oder FH-Reife mit bestandenem Studierfähigkeitstest der DHBW Sehr gute schulische Leistungen, v.a. in Mathematik und Englisch Hohes Interesse an betriebswirtschaftlichen Zusammenhängen und IT-Themen Gutes analytisch-logisches Verständnis und Kommunikationsstärke Motivierter, gut organisierter Teamplayer, der Ideen gerne in die Praxis umsetzt und strukturiert auf seine Ziele hinarbeitet Was wir bieten Deine Studienvergütung: 1.267 € (1.Sj.), 1.445 € (2.Sj.), 1.711 € (3.Sj.) sowie weitere Sonderzahlungen Aktiv geförderte Work-Life-Balance, z.B. mit Sport- und Fitnessprogramm Umfangreiches Weiterbildungsangebot u.a. im internationalen Umfeld Frühe Verantwortungsübernahme und spannende Aufgaben mit großem Gestaltungsspielraum Moderne und familiäre Unternehmenskultur Haben wir dich überzeugt?
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt mehrere Software Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Außerdem hast du die Möglichkeit, bis zu drei Monate in einer unserer Tochtergesellschaften weltweit zu verbringen. Was wir suchen Abitur oder FH-Reife mit bestandenem Studierfähigkeitstest der DHBW Sehr gute schulische Leistungen, v.a. in Mathematik und Englisch Hohes Interesse an betriebswirtschaftlichen Zusammenhängen und IT-Themen Gutes analytisch-logisches Verständnis und Kommunikationsstärke Motivierter, gut organisierter Teamplayer, der Ideen gerne in die Praxis umsetzt und strukturiert auf seine Ziele hinarbeitet Was wir bieten Deine Studienvergütung: 1.267,50 € (1.Sj.), 1.445,00 € (2.Sj.), 1.711,50 € (3.Sj.) sowie weitere Sonderzahlungen Aktiv geförderte Work-Life-Balance, z.B. mit Sport- und Fitnessprogramm Umfangreiches Weiterbildungsangebot u.a. im internationalen Umfeld Frühe Verantwortungsübernahme und spannende Aufgaben mit großem Gestaltungsspielraum Moderne und familiäre Unternehmenskultur Haben wir dich überzeugt?
Studiengänge Einsatzbereich | Praktikum/Abschlussarbeit im Bereich Data Science Dauer | 6 Monate Bestens gefordert | Wir suchen einen engagierten und motivierten Studierenden (m/w/d) für eine Masterarbeit zum Thema "Magnetlager in Pumpen - State of the Art".
Lass dich von uns empfehlen und profitiere von dem Zugang zu unveröffentlichten Stellenangeboten unserer Auftraggeber. Wir suchen im Rahmen der Direktvermittlung. Deine Mission Du bist verantwortlich für die Transformation unserer Big Data in Smart DataDu erstellst aussagekräftige Reports und individuelle AuswertungenDeine Aufgaben umfassen die Zusammenführung, Validierung, Aggregation und Interpretation von großen strukturierten und unstrukturierten Datenbeständen aus verschiedenen QuellenDurch Data Mining, Predictive Analytics und Machine Learning-Methoden unterstützt du bei der zukünftigen PrognoseerstellungMakro-Entwicklung (VBA) und Troubleshooting sind ebenfalls Teil deines AufgabenbereichsDu bist auch für die SQL-Entwicklung und Weiterentwicklung zuständig Deine Fähigkeiten Du verfügst über einen Abschluss in Wirtschaftsinformatik oder einem ähnlichen BereichDu bringst umfangreiche Erfahrung in der Datenanalyse mitDu verfügst über ausgezeichnete und fundierte Kenntnisse in Excel, insbesondere in der Handhabung von Makros und deren Erstellung mittels VBADu bringst mind.
Wir suchen zum 01.08.2026 dual Studierende (m/w/d) für den Studiengang Wirtschaftsingenieurwesen. Inhalte der Ausbildung: Der duale Studiengang Wirtschaftsingenieurwesen Maschinenbau verbindet technisches Ingenieurwissen mit betriebswirtschaftlichem Know-how und bereitet Dich auf vielseitige Aufgaben an der Schnittstelle zwischen Technik, Produktion und Management vor.
Du glänzt sowohl im Bereich KI als auch im Software Engineering? Du bist bereit für den nächsten Schritt und suchst einen Ort, an dem du in einer dynamischen und unterstützenden Umgebung weiter wachsen und dich entwickeln kannst? Dann schließe dich uns an und werde Teil unserer Mission!
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt einen Test Automation Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Controller (m/w/d) Sie suchen eine neue Herausforderung oder möchten sich verändern? Wir suchen einen Controller mit Schwerpunkt Power BI (m/w/d) Ihre Chancen und Vorteile mehr als nur ein Job Attraktive Vergütungsmodelle (Gehaltsspanne von 50.000 - 60.000 € jährlich)Unbefristetes Arbeitsverhältnis30 Tage UrlaubUrlaubsgeldJahresgratifikationVermögenswirksame LeistungenUmfangreiches Angebot an WeiterbildungenAttraktive Jobrad KonditionenAusführliche Einarbeitung Ihr Tätigkeitsbereich mit Verantwortung Eigenverantwortliche Unterstützung bei allen Planungs- und ReportingaktivitätenErstellung kundenspezifischer Daten und vertriebsunterstützender Auswertungen zur Analyse und Steuerung von VertriebsaktivitätenFortentwicklung der bestehenden Controlling-Systeme und Roll-Out unseres BI Systems (Power BI) in weitere GeschäftsbereicheZusammenarbeit mit verschiedenen Abteilungen, um Datenquellen zu identifizieren, zu integrieren und zu analysieren (Data Warehouse)Unterstützung der Fachabteilungen bei der Erstellung / Nutzung von Berichten und KPI´sErstellung und innerbetriebliche Diskussion von Abweichungsanalysen und Ad-hoc Auswertungen Ihre Kompetenzen und Potentiale Studium bzw. kaufmännische Ausbildung mit Schwerpunkt Big Data, Business Intelligence oder vergleichbarMindestens 3 Jahre BerufserfahrungSelbstständige, teamfähige, aufgeschlossene und motivierte Persönlichkeit, die sich als proaktiver Sparringspartner verstehtKenntnisse in BI-Tools (Qilk, Power BI) und/oder LucaNet wünschenswertAusgeprägte IT-Affinität von VorteilSehr gute Excel-KenntnisseFundierte Kenntnisse in operativen Themen (Budgetierung, Forecasting, Reporting, KPIs, etc.)Haben wir Sie überzeugt?
Stellenbeschreibung Sie sind auf der Suche nach mehr als nur einem Job - Sie möchten einen Ort finden, an dem Ihre Fähigkeiten nicht nur gefragt, sondern auch wertgeschätzt werden?
Stellenbeschreibung Sie sind auf der Suche nach mehr als nur einem Job - Sie möchten einen Ort finden, an dem Ihre Fähigkeiten nicht nur gefragt, sondern auch wertgeschätzt werden?