在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
工作需要在大数据下进行数据挖掘,因此在开发机器进行了开发环境的搭建:IntelliJ IDEA + Spark; 这样就可以使用IntelliJ IDEA在本地进行开发调试,之后再将作业提交到集群生产环境中运行,提升工作效率;本文对自己安装步骤以进行了简单的记录 0. 安装spark-1.3.0因机器上已经安装了JDK(如果没安装先安装JDK),所以安装spark就简单两步: 1.安装IntelliJ IDEAa、官网 下载IntelliJ IDEA , 最新版本的IntelliJ IDEA支持新建SBT工程,安装scala插件 2.跑Spark demo程序a、创建New Project -> Scala -> Project SDK 选择JDK目录,Scala SDK 选择Scala目录。 此时需要配置环境变量,选择菜单中的Run->Edit Configurations,修改Main class和VM options。 在VM options中输入“-Dspark.master=local”指示本程序本地单线程运行。具体可以查看Spark官方文档http://spark.apache.org/docs/latest/running-on-yarn.html 3.生成jar包提交到集群a、与本地local模式运行相同,创建 New project |
2023-10-27
2022-08-15
2022-08-17
2022-09-23
2022-08-13