近日,DataPipeline宣布完成A轮2100万元人民币融资,经纬创投领投。DataPipeline创始人陈诚表示,本轮融资后,将重点补强产品、研发和营销团队,在产品研发的深度和广度上提升客户满意度,组建更成熟高效的售前和销售团队,持续增加市场拓展力度,继续加强与产业上下游的紧密合作。
作为DataPipeline最大的机构投资人,经纬创投董事总经理熊飞表示:“随着越来越多的行业意识到企业信息化建设的重要性,企业内部和外部异构数据源也会快速增加。传统数据集成和ETL方案在云时代会逐渐力不从心。DataPipeline团队在Google、Yelp、AWS、Oracle、中科院、华为等积累了丰富的企业数据集成经验,从A轮投资以来展现了良好的业务发展势头,期待公司在中国数据集成市场继续专注产品和客户,取得好成绩。经纬已经在企业服务和云计算领域投资接近五十家公司,从软件定义存储、软件定义网络、容器、数据库、数据仓库,到云管理平台。经纬会继续大力支持该领域创业公司的发展。”
DataPipeline成立于2016年3月,专注为客户提供一站式数据与应用集成的平台和方案,帮助企业在云端连接各种结构化、半结构化或者非结构化数据,包括云数据库、微服务集群、SaaS、工业应用等,连接企业内部的数据孤岛,支撑客户通过数据分析更精准地驱动商业决策和业务决策。两年来,DataPipeline已经成功服务了数家大型客户,其中不乏众多国际和国内500强企业,覆盖零售、制造、银行、能源、互联网等行业。同时,DataPipeline已与数十家产业上下游合作伙伴建立了战略合作关系。
在中国市场上,当前集成项目主要是解决企业单点问题——连接企业内部所有数据孤岛。因此,企业客户迫切希望找到一个为云而生、连接更敏捷、性能更可靠、实时性更强大的集成产品。
区别于传统数据集成方案,DataPipeline从一开始就在产品架构、方案设计及操作体验等方面都进行了充分的调研和优化创新,产品和方案都更契合当前中国企业客户的需求。
首先是大数据量。企业逐年暴涨的大数据量对传统集成系统提出了严峻的挑战,传统ETL工具的高并发性能测试往往不达标或扩展性不足,先天不支持分布式架构,无法提供实时和批处理选择。DataPipeline在产品架构设计之初就充分考虑了超大数据量的同步需求,超出传统ETL工具几个量级的高并发数和可扩展性;可以支持客户每天平稳并行传输数千张表、数百GB增量数据,累计传输数据超过数十TB。
其次是实时性。企业当前异构数据源和目的地种类日益增多,采用传统ETL工具或自己编写脚本复杂度和维护成本都非常高,数据从各业务系统到被调用通常要经历模型设计、代码编写、测试上线等流程,所需周期过长,极易阻塞下游数据应用开发的进程。DataPipeline可以支持多种异构数据源和目的地的自动化数据交换,目前已经支持20多个主流数据源和目的地;通过解析数据库的复制日志去捕获数据与数据定义的变化,让数据同步任务能够做到实时自适应。
第三是数据质量。采用传统集成方案,往往在完成数据同步后,企业客户却无法及时地管控数据质量,需要花费大量时间从下游数据应用逆推上游数据问题,缺少数据质量预警及相应的补救措施。DataPipeline可以为客户提供全程数据质量监控,包括数据状态监控、预警队列管理以及无需人为预先定义的数据质量多维度检测功能,让客户不必担心因为经常出现的错误状态而影响数据质量。
第四是敏捷易用。当前,传统集成方案在ETL中固化的转换不是优势反而成为一种束缚,ETL Job难以持续维和重复使用,极大降低其灵活性。但是,当前企业在业务应用和数据应用方面的需求瞬息万变,对数据的使用从定式的数仓建模向探索式的数据应用、AI应用的方向探索。DataPipeline可以为客户提供适度的数据清洗功能,用内置的清洗功能和清洗API构建灵活的框架式功能,支持客户做更敏捷、更自由地实现数据加工、处理、分析和展现等操作。
目前,DataPipeline主要提供数据同步、数据清洗、数据任务管理、错误队列管理、运维管理和用户管理等功能。为了降低工程师使用门槛,DataPipeline采用可视化配置界面,无需任何代码5分钟即可创建数据同步任务。
在部署模式上,DataPipeline支持混合云、跨云、私有化等多种模式。为了让私有化部署成本更低效率更高,DataPipeline采用当前先进的容器技术;为了提升非私有环境的安全性,DataPipeline对混合云、跨云的部署模式进行加密。在收费模式上,DataPipeline按照客户系统所占用的服务器收取年费。
对企业IT管理者和工程师来说,DataPipeline能帮他们大大提高工作效率。一方面,DataPipeline可以全面解放工程师的劳动力,让工程师将工作重心放在数据价值挖掘而不必纠结于数据连接的问题,把更多的精力放在满足业务需求上;另一方面,DataPipeline可以帮助IT管理者实时准确地监管数据任务动态、错误队列管理、挖掘数据资源、管理数据资产等。
2017年,DataPipeline汇聚了众多来自Google、Yelp、Amazon、Oracle、中科院、华为、Informatica和Talend等知名企业的专业人士,他们在数据行业内有着多年深厚的研发、产品和项目经验积累和行业影响力,对企业客户的需求和痛点理解更深刻。并且,DataPipeline在北京、南京均设有研发中心,更及时地响应全国客户的需求。