暂时没有符合条件的职位

数据 北京
详情 收起

薪酬:30K-60K  |  学历要求:本科及以上  |  工作年限:3年以上

岗位职责
• 搭建公司的实时计算平台 • 参与海量数据的运营数据分析体系搭建 • 负责数据接入, 数据处理, 业务数据建模等工作
岗位要求
• 扎实的编程能力,熟练掌握Java/Scala/Python编程 • 深入理解主流的大数据和流式数据处理技术MapReduce,Storm,Spark,Flink等 • 熟练运用运用数据库 如Solr, ElasticSearch, Mysql,MongoDB,Hive,HBase,Neo4j 等 • 工作细致、责任心强,具备较强的学习能力及理解能力,有良好的沟通能力和团队协作能力 • 有NLP相关开发经验优先 • 有分布式系统、大规模线上系统开发或者大规模数据处理经验的优先 工作地点:三元桥凤凰大厦
数据 北京
详情 收起

薪酬:30K-60K  |  学历要求:本科及以上  |  工作年限:5年以上

岗位职责
• 与业务部门密切配合,深度理解各个业务方向数据诉求,负责大数据平台的架构规划和维护,构建数据基础设施和数据应用体系 • 负责大数据团队的整体管理工作,包含数据采集、数据产品开发、AI算法优化等方向 • 负责数据对接,打通和三方服务的设计、开发和维护,并能保证质量和性能 • 提升技术团队工作能力、工作效率和工作质量
岗位要求
• 具备丰富的敏捷/Scrum开发和管理经验 • 熟练掌握多维数据模型和维度建模 • 熟练掌握多项大数据领域的开源框架Hadoop/Spark/Flink/Hbase/Kafka/DeltaLake/Data Warehouse/Elasticsearch/Druid等 • 具备出色的分析、归纳、总结的能力,良好的沟通协调技巧,优秀的表达和文档撰写和控制能力以及出色的协同能力 • 强烈的创新意识,极高的责任心和职业操守,勇于挑战 • 有企业级数据产品开发管理经验优先 • 有企业级BI类产品开发和使用经验优先 • 有NLP相关开发经验优先 工作地点:三元桥凤凰大厦
数据 北京
详情 收起

薪酬:30K-60K  |  学历要求:本科及以上  |  工作年限:5年以上

岗位职责
搭建公司的大数据存储平台及数据仓库
岗位要求
1、精通主流大数据和流式数据处理技术,如Spark、Flink、Kafka、Storm、Map Reduce等 2、扎实的编程能力,熟练掌握Java/Scala/python/go编程 3、深入理解关系型数据库(至少一种):Mysql/PostgreSQL/Greenplum/TiDB 4、深入理解NoSQL数据库(至少一种):MongoDB,Hbase,ElasticSearch, Solr等 5、掌握理解图数据库(至少一种): Neo4j/HGraphDB等 6、熟悉分布式存储系统的相关原理,对构建大规模分布式存储系统有浓厚的兴趣 7、如对ClickHouse/Delta Lake/Apache Hudi/Apache Iceberg某一项有深入理解,可优先考虑 工作地点:三元桥凤凰大厦
研发 北京
详情 收起

薪酬:25K-50K  |  学历要求:本科及以上  |  工作年限:3年以上

岗位职责
职位描述: • 负责微服务的开发 • 参与公司数据中台的搭建及微服务架构 • 微服务平台前沿技术研究和方案实施落地
岗位要求
• 5年及以上工作经验 • 熟练掌握至少一种开发语言:java/go/python等语言 (golang实际开发经验1年以上的优先) • 熟悉HTTP协议,以及微服务RPC调用协议,比如 thrift grpc等。(grpc有实际经验者优先) • 熟悉开源微服务框架如Spring boot、spring cloud、dubbo、istio等。对框架本身有过开发或重构者可优先考虑 • 熟悉Redis、kafka、MySQL、MongoDB、ElasticSearch、Solr、Clickhouse,Apache Druid 等(至少两种有实际使用经验) • 熟悉docker、kubernetes等容器技术并有实际使用经验优先 • 有推荐系统开发经验值优先 • 掌握数据仓库以及多维度建模者优先 • 参与过大型分布式系统的架构设计及开发,理解SOA/微服务架构体系相关知识 • 良好的沟通、团队协作能力,强烈的责任心,进取心、优秀的执行能力

发布者

慧科讯业(北京)网络科技有限公司
企业用户:慧科讯业(北京)网络科技有限公司
  • 平均简历处理率 0%
  • 平均简历处理时间 27天

慧科讯业(北京)网络科技有限公司

查看其他11个职位>>

大数据

1000人

北京 上海 广州 深圳 南京