自从工作以来一直都是从事大数据相关的工作,现在回头想一下,虽然每个阶段都不是最先用上当时最新的技术,但还是跟随着它们“稳定”的步伐,也庆幸自己在不同的阶段能接触到不一样的技术面,从这些
不同的经历之中,我总结了业务需求对数据的处理能力主要有三种要求:
单论计算引擎,spark,flink三者都能提供以上三种能力,但是强弱各不同,spark本质是批处理,一直往流处理发展,从spark streaming到StructStreaming;flink是天然的流引擎,也一直在推动流批一体。
lambda架构一直饱受诟病,应用成本高、两套代码容易造成数据一致性问题,就算在spark和flink中取其一实现流批一体,但是存储层面的隔离使得批处理和流处理两个流程之间的数据不能