为什么spark要用scala实现?
1.斯帕克和斯卡拉真是天作之合。rdd的许多思想都与scala类似,如map、filter等高阶算子与scala的概念表完全相同。用很短的
代码,可以实现多行java函数;类似于fp中的不可变和惰性计算,rdd可以用分布式内存对象实现,同时可以实现流水线。scala善于利用例如,设计的初衷包括对jvm的支持,因此可以很好地借鉴java的生态功能;像spark,很多东西不是自己写的,但是可以直接借鉴,比如直接在yarn、mesos、ec2中部署,使用hdfs、s3,借用配置单元的sql解析部分;
3。阿克卡也便于发展高效的网络通信。
原文标题:sparkrdd5大特性 为什么Spark要用Scala实现?,如若转载,请注明出处:https://www.saibowen.com/news/19457.html
免责声明:此资讯系转载自合作媒体或互联网其它网站,「赛伯温」登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考。