Was wir machen
Wir entwerfen Architekturen für große unstrukturierte Datenmengen. Wir schaffen robuste Verbindungen zu ihren bestehenden Systemen. Wir implementieren und schulen in Big Data-Technologien. Wir operationalisieren Machine-Learning Modelle und gestalten Arbeitsumgebungen für Data Scientists. Wir helfen ihnen, neuartige Fragen zu stellen. Weiterlesen…
Technologien
Wir skalieren ihre Datenverarbeitung mit Cloud-Diensten, Hadoop-Distributionen oder Streamingtechnologien wie Apache Kafka, Apache Flink oder Apache Spark – On premise, auf Kubernetes oder in der Cloud. Wir entwickeln auf der Basis von Open-Source Projekten wie Presto, Apache Drill oder Apache Hive Analyseplattformen. Wir realisieren robuste, verzahnte Prozesse – in Echtzeit per Streaming oder auch batch-orientiert. Weiterlesen…